北京時(shí)間5月26日上午消息,微軟開發(fā)出一套新工具,用來判斷AI算法是否存在偏見。AI算法可能會(huì)歧視某些人群,微軟希望新工具能夠幫助企業(yè)及時(shí)發(fā)現(xiàn),安全使用AI。
微軟偏見偵測(cè)研究主管里奇·卡魯阿納(Rich Caruana)介紹稱,新工具相當(dāng)于“儀表板”,工程師可以用它訓(xùn)練AI模型。他還表示,在AI領(lǐng)域,因?yàn)榻?jīng)驗(yàn)不足,有些新東西理解的人很少,比如透明度、可理解性、可解釋性;還有隨時(shí)可能出現(xiàn)的偏見,這些都是必須重視的元素。
在最近舉行的會(huì)議上,哈佛機(jī)器學(xué)習(xí)講師、羅德島大學(xué)CIO加布里爾·法耶羅(Gabriele Fariello)曾說,在倫理偏見方面,AI已經(jīng)存在嚴(yán)重的問題。他認(rèn)為,在醫(yī)療保健、司法及其它領(lǐng)域,有些決定由AI做出,它會(huì)直接影響我們的生活。
卡魯阿納還說:“好好訓(xùn)練員工,這是企業(yè)眼下應(yīng)該做的最重要事情,這樣員工就能知道在哪些環(huán)境下偏見會(huì)增加,在哪些環(huán)境下會(huì)顯示出來,員工還能開發(fā)工具,讓模型變得更容易理解,讓偏見更容易被發(fā)現(xiàn)。”(星海)
特別提醒:本網(wǎng)信息來自于互聯(lián)網(wǎng),目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實(shí),對(duì)本文以及其中全部或者部分內(nèi)容、文字的真實(shí)性、完整性、及時(shí)性本站不作任何保證或承諾,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。本站不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。如若本網(wǎng)有任何內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系我們,本站將會(huì)在24小時(shí)內(nèi)處理完畢。