久久久久久久视色,久久电影免费精品,中文亚洲欧美乱码在线观看,在线免费播放AV片

<center id="vfaef"><input id="vfaef"><table id="vfaef"></table></input></center>

    <p id="vfaef"><kbd id="vfaef"></kbd></p>

    
    
    <pre id="vfaef"><u id="vfaef"></u></pre>

      <thead id="vfaef"><input id="vfaef"></input></thead>

    1. 站長資訊網(wǎng)
      最全最豐富的資訊網(wǎng)站

      人工智能技術加持,新一代通用視覺技術體系“書生”正式發(fā)布

        11 月 18 日消息,昨日,上海人工智能實驗室聯(lián)合商湯科技 SenseTime、香港中文大學、上海交通大學共同發(fā)布新一代通用視覺技術體系“書生”(INTERN),該體系旨在系統(tǒng)化解決當下人工智能視覺領域中存在的任務通用、場景泛化和數(shù)據(jù)效率等一系列瓶頸問題。

      人工智能技術加持,新一代通用視覺技術體系“書生”正式發(fā)布

      ▲ 圖源:上海人工智能實驗室

        目前,技術報告《INTERN: A New Learning Paradigm Towards General Vision》已在 arXiv 平臺發(fā)布,基于“書生”的通用視覺開源平臺 OpenGVLab 也將在明年年初正式開源,向?qū)W術界和產(chǎn)業(yè)界公開預訓練模型及其使用范式、數(shù)據(jù)系統(tǒng)和評測基準等。

        根據(jù)相關技術報告,一個“書生”基模型即可全面覆蓋分類、目標檢測、語義分割、深度估計四大視覺核心任務。

        上海人工智能實驗室表示,相較于當前最強開源模型(OpenAI 于 2021 年發(fā)布的 CLIP),“書生”在準確率和數(shù)據(jù)使用效率上均取得大幅提升。具體而言,基于同樣的下游場景數(shù)據(jù),“書生”在分類、目標檢測、語義分割及深度估計四大任務 26 個數(shù)據(jù)集上的平均錯誤率分別降低了 40.2%、47.3%、34.8% 和 9.4%。

        通用視覺技術體系“書生”(INTERN)由七大模塊組成,包括通用視覺數(shù)據(jù)系統(tǒng)、通用視覺網(wǎng)絡結構、通用視覺評測基準三個基礎設施模塊,以及區(qū)分上下游的四個訓練階段模塊。

      特別提醒:本網(wǎng)信息來自于互聯(lián)網(wǎng),目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,并請自行核實相關內(nèi)容。本站不承擔此類作品侵權行為的直接責任及連帶責任。如若本網(wǎng)有任何內(nèi)容侵犯您的權益,請及時聯(lián)系我們,本站將會在24小時內(nèi)處理完畢。

      贊(0)
      分享到: 更多 (0)
      網(wǎng)站地圖   滬ICP備18035694號-2    滬公網(wǎng)安備31011702889846號