久久久久久久视色,久久电影免费精品,中文亚洲欧美乱码在线观看,在线免费播放AV片

<center id="vfaef"><input id="vfaef"><table id="vfaef"></table></input></center>

    <p id="vfaef"><kbd id="vfaef"></kbd></p>

    
    
    <pre id="vfaef"><u id="vfaef"></u></pre>

      <thead id="vfaef"><input id="vfaef"></input></thead>

    1. 站長資訊網(wǎng)
      最全最豐富的資訊網(wǎng)站

      字節(jié)跳動火山翻譯團隊推出全新 AI 訓(xùn)練引擎:向全球開發(fā)者開源

        6 月 28 日消息 今日,字節(jié)跳動火山翻譯團隊宣布推出 LightSeq 訓(xùn)練加速引擎,并向全球開發(fā)者開源。

        Transformer 是自然語言處理、計算機視覺等 AI 技術(shù)領(lǐng)域最常用的基礎(chǔ)模型,被廣泛應(yīng)用在機器翻譯、文本生成、文本摘要、圖像處理、時間序列預(yù)測等任務(wù)中。訓(xùn)練和推理則是 AI 技術(shù)的兩個主要過程,相當(dāng)于學(xué)習(xí)知識和解決問題。

        據(jù)悉,LightSeq 訓(xùn)練加速引擎能夠支持 Transformer 的完整加速,從詞嵌入層、編碼層、解碼層,到最后的損失函數(shù)層,業(yè)內(nèi)首次實現(xiàn)了全流程支持。而且 LightSeq 的訓(xùn)練速度極快,相比主流的序列生成庫,LightSeq 最快只需要三分之一的時間就能完成訓(xùn)練。

        根據(jù)公開報道,字節(jié)跳動現(xiàn)在已經(jīng)開源了機器學(xué)習(xí)平臺 Klever、聯(lián)邦學(xué)習(xí)平臺 Fedlearner、高性能分布式訓(xùn)練框架 BytePS 等重磅項目。

      特別提醒:本網(wǎng)信息來自于互聯(lián)網(wǎng),目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,并請自行核實相關(guān)內(nèi)容。本站不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。如若本網(wǎng)有任何內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系我們,本站將會在24小時內(nèi)處理完畢。

      贊(0)
      分享到: 更多 (0)
      網(wǎng)站地圖   滬ICP備18035694號-2    滬公網(wǎng)安備31011702889846號