久久久久久久视色,久久电影免费精品,中文亚洲欧美乱码在线观看,在线免费播放AV片

<center id="vfaef"><input id="vfaef"><table id="vfaef"></table></input></center>

    <p id="vfaef"><kbd id="vfaef"></kbd></p>

    
    
    <pre id="vfaef"><u id="vfaef"></u></pre>

      <thead id="vfaef"><input id="vfaef"></input></thead>

    1. 站長資訊網(wǎng)
      最全最豐富的資訊網(wǎng)站

      微軟開發(fā)新工具 可以防止AI算法出現(xiàn)偏見

        北京時間5月26日上午消息,微軟開發(fā)出一套新工具,用來判斷AI算法是否存在偏見。AI算法可能會歧視某些人群,微軟希望新工具能夠幫助企業(yè)及時發(fā)現(xiàn),安全使用AI。

        微軟偏見偵測研究主管里奇·卡魯阿納(Rich Caruana)介紹稱,新工具相當(dāng)于“儀表板”,工程師可以用它訓(xùn)練AI模型。他還表示,在AI領(lǐng)域,因?yàn)榻?jīng)驗(yàn)不足,有些新東西理解的人很少,比如透明度、可理解性、可解釋性;還有隨時可能出現(xiàn)的偏見,這些都是必須重視的元素。

        在最近舉行的會議上,哈佛機(jī)器學(xué)習(xí)講師、羅德島大學(xué)CIO加布里爾·法耶羅(Gabriele Fariello)曾說,在倫理偏見方面,AI已經(jīng)存在嚴(yán)重的問題。他認(rèn)為,在醫(yī)療保健、司法及其它領(lǐng)域,有些決定由AI做出,它會直接影響我們的生活。

        卡魯阿納還說:“好好訓(xùn)練員工,這是企業(yè)眼下應(yīng)該做的最重要事情,這樣員工就能知道在哪些環(huán)境下偏見會增加,在哪些環(huán)境下會顯示出來,員工還能開發(fā)工具,讓模型變得更容易理解,讓偏見更容易被發(fā)現(xiàn)。”(星海)

      特別提醒:本網(wǎng)信息來自于互聯(lián)網(wǎng),目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實(shí),對本文以及其中全部或者部分內(nèi)容、文字的真實(shí)性、完整性、及時性本站不作任何保證或承諾,并請自行核實(shí)相關(guān)內(nèi)容。本站不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。如若本網(wǎng)有任何內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系我們,本站將會在24小時內(nèi)處理完畢。

      贊(0)
      分享到: 更多 (0)
      網(wǎng)站地圖   滬ICP備18035694號-2    滬公網(wǎng)安備31011702889846號