近期,一款名為ZAO的人工智能換臉App在國(guó)內(nèi)推出。用戶只需上傳一張正面照,就可以一鍵操作,把一些影視劇片段中演員的臉換成自己的,立刻生成視頻,還可通過(guò)社交媒體傳播,仿佛瞬間圓了明星夢(mèng)。
這一款換臉App很快就成了爆款,頗受歡迎,但也很快引起有關(guān)部門的注意,就在本周,工信部就網(wǎng)絡(luò)數(shù)據(jù)安全問(wèn)題約談了相關(guān)公司。
與此同時(shí),“換臉” 軟件所依托的的一項(xiàng)AI技術(shù),也引起了人們的關(guān)注,它被稱為:DeepFake, 深度偽造。
外國(guó)媒體報(bào)道:我們不能相信網(wǎng)上的所有東西,沒(méi)錯(cuò),深度偽造,深度偽造,深度偽造!是的,這到底是什么?深度偽造技術(shù)是利用人工智能合成以假亂真的視頻,這是一種高科技手段,可以把某些話塞進(jìn)某人嘴里。
Deepfake(深度偽造),“Deep learning”(深度學(xué)習(xí))和“Fake”(偽造)結(jié)合而成的新單詞。
簡(jiǎn)單來(lái)說(shuō),這是一種可以實(shí)時(shí)偽造面部表情,并將其渲染成2D合成視頻的人工智能技術(shù)。
早在一年多前, 2017年12月,一個(gè)名為“DeepFakes”的用戶在Reddit網(wǎng)站發(fā)布“假視頻”,將成人色情電影中演員的臉替換成了斯嘉麗·約翰遜等知名女演員的臉,畫(huà)面以假亂真。這為人工智能換臉技術(shù)吸引來(lái)了一大波流量,“DeepFake”深度偽造,也逐漸成為這一技術(shù)的代稱,同名算法也在Github開(kāi)源,這是一個(gè)面向開(kāi)源及私有軟件項(xiàng)目的托管平臺(tái)。
網(wǎng)絡(luò)視頻打假專家 沃德?tīng)柌┦浚耗愫?,今天我要和你討論一?xiàng)影響名人的新技術(shù)。(記得)奧巴馬說(shuō)特朗普是笨蛋,或者卡戴珊的說(shuō)唱“因?yàn)槲铱偸前肼銌?rdquo;?深度偽造!深度偽造!深度偽造!這也是深度偽造,我也不是阿黛爾,我是(打擊)網(wǎng)絡(luò)偽造的專家。深度偽造用來(lái)形容人工智能技術(shù)合成的視頻或音頻文件。它起初就是一種非常基本的面部更換,現(xiàn)在還成了電影特技。有了這樣的爆款技術(shù),天啊,我們不能相信任何東西了。沒(méi)錯(cuò),深度偽造就是可怕的反烏托邦。它們只會(huì)變得更容易,制作成本也更低廉。
李浩是美國(guó)南加州大學(xué)的助理教授,“針幕動(dòng)畫(huà)”公司的聯(lián)合創(chuàng)始人,這家公司推出的軟件可以讓用戶在玩虛擬現(xiàn)實(shí)游戲和購(gòu)物時(shí),即時(shí)定制自己的三維虛擬化身。
“針幕動(dòng)畫(huà)”聯(lián)合創(chuàng)始人 李浩:現(xiàn)在我制作了一個(gè)你的化身。
美國(guó)公共廣播公司記者 奧布萊恩:一個(gè)和藹整潔的奧布萊恩。
這種戲法可以用在任何人身上,當(dāng)然也包括政界要人。
美國(guó)公共廣播公司記者 奧布萊恩:現(xiàn)在我成了我們的總統(tǒng)(特朗普),日本首相安倍晉三。
“針幕動(dòng)畫(huà)”聯(lián)合創(chuàng)始人 李浩:當(dāng)然,這個(gè)技術(shù)可以用來(lái)做一些真的很壞的事情。但主要目的絕不是如此,它被用于娛樂(lè),一個(gè)有趣的工具,用于時(shí)尚、生活方式各方面,帶給我們更多體驗(yàn)。
但隨著技術(shù)的發(fā)展,這樣的合成圖像或視頻,真實(shí)度越來(lái)越強(qiáng),欺騙性也越來(lái)越強(qiáng)。對(duì)此,研發(fā)者也不無(wú)擔(dān)憂。
“針幕動(dòng)畫(huà)”聯(lián)合創(chuàng)始人 李浩:我們都假設(shè)會(huì)有一個(gè)臨界點(diǎn),屆時(shí)將無(wú)法區(qū)分真假。我的意思是,從視覺(jué)效果上說(shuō),我覺(jué)得你已經(jīng)可以做到非常接近了,只是取決于你花多少努力在上面。但就任何人都可以創(chuàng)建的內(nèi)容而言,我認(rèn)為已經(jīng)非常接近這個(gè)臨界點(diǎn)了。
2018年1月,一個(gè)名為FakeApp的軟件上線,宣稱可以實(shí)現(xiàn)“一鍵換臉”??缮傻囊曨l內(nèi)容包括惡搞美國(guó)總統(tǒng)特朗普,或是將自己的臉貼到好萊塢明星身上。
雖然有的社交新聞?wù)军c(diǎn)比如Reddit網(wǎng)站,已明令禁止在自己的平臺(tái)傳播換臉視頻和圖片,但仍有超過(guò)9萬(wàn)名用戶在Reddit上傳播這類視頻。
計(jì)算機(jī)科學(xué)專家 法里德:我擔(dān)心這項(xiàng)技術(shù)被武器化,還擔(dān)心它如何影響我們整個(gè)社會(huì)。
深度偽造不僅可以換臉,還可偽造聲音。
據(jù)《華爾街日?qǐng)?bào)》報(bào)道,今年3月,有犯罪分子利用“深度偽造”技術(shù),電腦合成某公司CEO的聲音,成功詐騙22萬(wàn)歐元。
電腦合成聲音真的這么難以識(shí)破嗎?
2018年,三名蒙特利爾大學(xué)的博士聯(lián)合創(chuàng)辦了一家名為“琴鳥(niǎo)”(Lyrebird)的公司。該公司開(kāi)發(fā)出了一種“語(yǔ)音合成”技術(shù),只要對(duì)目標(biāo)人物的聲音進(jìn)行1分鐘以上的錄音,把錄音丟給“琴鳥(niǎo)”處理,就能得到一個(gè)特別的密鑰,利用這個(gè)密鑰可以用目標(biāo)人物的聲音,生成任何想說(shuō)的話。
“琴鳥(niǎo)”創(chuàng)始人:你需要錄自己幾分鐘的聲音。
彭博社記者 萬(wàn)斯:上千個(gè)字母在業(yè)余作家的屏幕上跳動(dòng),當(dāng)你開(kāi)始像這樣吃東西時(shí),就會(huì)有問(wèn)題,你們最好退出政治圈,別干了。我不知道它怎么工作的,現(xiàn)在創(chuàng)建我的數(shù)字聲音。創(chuàng)建你的數(shù)字聲音至少需要一分鐘,一分鐘,我的天啊。
語(yǔ)音錄制完后,“琴鳥(niǎo)”會(huì)自動(dòng)運(yùn)轉(zhuǎn)合成出你的數(shù)字聲音。
這時(shí),只需要向電腦輸入想說(shuō)的話,就可以用新合成的你的聲音說(shuō)出來(lái)。
記者萬(wàn)斯的數(shù)字合成聲音:人工智能技術(shù)似乎發(fā)展非???,我們?cè)摳械胶ε聠帷?/p>
彭博社記者 萬(wàn)斯:我的確聽(tīng)到了,真的很有意思。我只是隨便挑了,我從沒(méi)說(shuō)過(guò)的話。
而且,“琴鳥(niǎo)”還能在合成聲音中加入“感情”元素,讓聲音聽(tīng)上去更逼真。
彭博社記者 萬(wàn)斯:現(xiàn)在為了實(shí)驗(yàn)一下我的電腦合成音,我要給我親愛(ài)的媽媽打個(gè)電話,看看她是否能聽(tīng)出來(lái)。嗨,媽媽,你們今天什么安排。
萬(wàn)斯的母親:今天一早家里沒(méi)電了,我們正在房子里溜達(dá)。
萬(wàn)斯:我剛剛下班,等著接兒子回家。
萬(wàn)斯的母親:好的。
萬(wàn)斯:我覺(jué)得我可能感染了病毒。
萬(wàn)斯的母親:那你感覺(jué)不舒服,是嗎?
萬(wàn)斯:哈哈,我剛才是和你搗亂,你剛才在和電腦說(shuō)話。
萬(wàn)斯的母親:我感覺(jué)在和你說(shuō)話,真是奇妙。
萬(wàn)斯:你覺(jué)得嚇人還是覺(jué)得不錯(cuò)。
萬(wàn)斯的母親:如果涉及到非常重要的事情,真的挺嚇人的。不過(guò)現(xiàn)在是你了,對(duì)嗎?
萬(wàn)斯:我不知道。
萬(wàn)斯的母親:聽(tīng)上去是你。
萬(wàn)斯:是嗎?
萬(wàn)斯的母親:是,是,聽(tīng)上去就是你。
彭博社記者 萬(wàn)斯:很明顯,有些人被這項(xiàng)技術(shù)嚇壞了。因?yàn)槲覀円呀?jīng)讓現(xiàn)實(shí)真相變得模糊不清。
“琴鳥(niǎo)”創(chuàng)始人:當(dāng)然,的確存在有人利用這項(xiàng)技術(shù)做壞事的風(fēng)險(xiǎn)。但是,科技不可能停止發(fā)展,所以我們決定選擇符合道德的做法,將技術(shù)展示給人們,讓人們知道這項(xiàng)技術(shù)的可行性,讓他們提高警惕。
網(wǎng)絡(luò)安全公司Pindrop在2018年五月對(duì)美英德法四國(guó)共500家企業(yè)展開(kāi)網(wǎng)上調(diào)查,結(jié)果顯示,從2013年到2017年,語(yǔ)音欺詐案件的數(shù)量增加了350%,每638個(gè)欺詐電話中就有1個(gè)是人工合成聲音。
瑞士蘇黎世大學(xué)研究員 烏德里什:長(zhǎng)久以來(lái),人類的聲音是(造假者)最大的挑戰(zhàn),因?yàn)槊糠N聲音都極其復(fù)雜且獨(dú)一無(wú)二,它們幾乎不可能被偽造。但在最近幾年,(科技)取得了巨大進(jìn)步,視頻素材和偽造聲音的結(jié)合造成了巨大的威脅。
的確,有了成熟的聲音造假技術(shù),再配上偽造圖像,做出一條以假亂真、別有用心的視頻真的不難了。
“深度偽造”假視頻:特朗普總統(tǒng)是個(gè)徹底的笨蛋,你看我永遠(yuǎn)不會(huì)說(shuō)這些話,至少在公共演講中(不會(huì)),但其他人會(huì)說(shuō),比如喬丹·皮爾。這是一個(gè)危險(xiǎn)的時(shí)代,以后我們要對(duì)我們所信任的互聯(lián)網(wǎng)更加警惕。在這個(gè)時(shí)代我們需要可信的新聞來(lái)源,聽(tīng)起來(lái)很簡(jiǎn)單,但我們?cè)撊绾伟l(fā)展,信息時(shí)代將決定我們是生存,還是成為某種糟糕的反烏托邦。謝謝。
這段視頻看上去是美國(guó)前總統(tǒng)奧巴馬在發(fā)表演講,實(shí)際上卻是喜劇演員和電影制作人皮爾的表演,聲音和畫(huà)面都是通過(guò)軟件合成的。
計(jì)算機(jī)科學(xué)專家 法里德:人工智能系統(tǒng)合成了奧巴馬的嘴,使其與音頻流保持一致,讓視頻看起來(lái)像是奧巴馬總統(tǒng)在說(shuō)他之前從未說(shuō)過(guò)的話。這叫作唇同步深度偽造。
技術(shù)本無(wú)善惡,深度偽造可以被運(yùn)用于趣味視頻、游戲以及廣告合作中,但惡意運(yùn)用也會(huì)帶來(lái)嚴(yán)重后果。它可能會(huì)摧毀我們對(duì)現(xiàn)實(shí)的認(rèn)知,使人們不敢再相信視頻、錄像。
美國(guó)卡內(nèi)基國(guó)際和平基金會(huì)也警告稱,深度偽造正在帶來(lái)破壞性的影響,也會(huì)對(duì)反恐和國(guó)家安全造成危害。
計(jì)算機(jī)科學(xué)專家 法里德:噩夢(mèng)般的情況是,出來(lái)一段特朗普總統(tǒng)的視頻,他在視頻里說(shuō),我對(duì)朝鮮發(fā)射了核武器。有人黑進(jìn)了他的推特賬號(hào),這條消息被瘋狂傳播,短短30秒,全球核戰(zhàn)爆發(fā)。我覺(jué)得這可能嗎?不,但并非完全不可能,而且會(huì)把你嚇得半死,對(duì)嗎?但這并非不可能的事實(shí),真的令人擔(dān)憂。
從“深度學(xué)習(xí)”到“深度偽造”,照片、聲音、視頻都可輕松造假,而識(shí)別深度偽造則要比制作深度偽造難得多。
當(dāng)“眼見(jiàn)未必為實(shí),耳聽(tīng)未必為真”,我們又該怎么辦?
扎克伯格“深度偽造”假視頻:這都要?dú)w咎于Spectre漏洞,它告訴我誰(shuí)掌控了數(shù)據(jù),誰(shuí)就掌控了未來(lái)。
今年6月,圖片分享網(wǎng)站Instagram出現(xiàn)這樣一段視頻。臉書(shū)公司創(chuàng)始人扎克伯格就大數(shù)據(jù)的威力發(fā)表演講。
但很快,扎克伯格就辟謠說(shuō),自己從未說(shuō)過(guò)這些話。事實(shí)上,這是以色列一家科技公司利用深度偽造技術(shù)合成而來(lái)的。
略顯尷尬的是,臉書(shū)曾宣稱,該公司不會(huì)刪除假新聞,但會(huì)減少其在網(wǎng)站上的影響力,并顯示來(lái)自事實(shí)核查人員的信息。
而Instagram總裁莫斯里也在接受采訪時(shí)表示,目前業(yè)界還沒(méi)有大規(guī)模的數(shù)據(jù)或標(biāo)準(zhǔn)對(duì)這些假視頻進(jìn)行檢測(cè)。
Instagram總裁 莫斯里:目前,我們還沒(méi)有應(yīng)對(duì)深度偽造的政策,我們正試著評(píng)估是否愿意這么做。如果要做,又該如何定義深度偽造。我覺(jué)得(此類事件)并不好。
主持人蓋爾·金:你可以限制這種技術(shù),你有影響力。
莫斯里:實(shí)際上,我想的不僅是把它撤下來(lái),我認(rèn)為問(wèn)題在于,我們?nèi)绾我杂性瓌t的方式做到這一點(diǎn)。
對(duì)此,《財(cái)富》雜志呼吁說(shuō),現(xiàn)在已經(jīng)到了科技公司、學(xué)術(shù)界和政府共同努力尋找解決方案的時(shí)候了。
6月13號(hào),美國(guó)眾議院情報(bào)委員會(huì)召開(kāi)關(guān)于人工智能深度偽造的聽(tīng)證會(huì),公開(kāi)談?wù)摿松疃葌卧旒夹g(shù)給國(guó)家、社會(huì)和個(gè)人帶來(lái)的風(fēng)險(xiǎn),以及該采取的防范和應(yīng)對(duì)措施。
目前,世界多國(guó)也都開(kāi)始進(jìn)行立法,強(qiáng)化對(duì)人臉信息收集和識(shí)別技術(shù)應(yīng)用場(chǎng)景的約束。但所有努力都離不開(kāi)社交媒體平臺(tái)的配合。
計(jì)算機(jī)科學(xué)專家 法里德:但大多數(shù)情況下,社交媒體平臺(tái)對(duì)如何處理這類非法內(nèi)容、有害內(nèi)容、不實(shí)信息、假新聞、選舉篡改、非自愿的色情等內(nèi)容都顯得漫不經(jīng)心,因?yàn)檫@些內(nèi)容吸引眼球,對(duì)生意有好處。
近日,臉書(shū)、微軟等科技公司和眾多學(xué)術(shù)機(jī)構(gòu)聯(lián)合發(fā)起一場(chǎng)“揪出深度偽造影像挑戰(zhàn)賽”,希望改善現(xiàn)有工具,加強(qiáng)對(duì)深度偽造圖片、聲音和視頻的檢測(cè)能力。
9月5號(hào),臉書(shū)宣布將為此投入1000萬(wàn)美元。
美國(guó)加州大學(xué)伯克利分校的研究人員也在研究如何應(yīng)對(duì)深度偽造。
計(jì)算機(jī)科學(xué)專家 法里德:我們應(yīng)對(duì)這一問(wèn)題的方式是,建立了軟生物識(shí)別模型。這些生物特征指的是像指紋、虹膜、面部。它沒(méi)有那么獨(dú)特,但其目的是捕捉微妙的面部表情、頭部移動(dòng),這些每個(gè)個(gè)體獨(dú)有的,但在假視頻制作時(shí)被打亂了的特征。
計(jì)算機(jī)科學(xué)專家 法里德:首先我們會(huì)測(cè)量各種頭部移動(dòng)和面部表情,你可以在這個(gè)視頻里,看到我們正在捕捉藍(lán)色盒子,正在捕捉他的頭部在三維空間里如何轉(zhuǎn)動(dòng)。紅點(diǎn)是在定位他的面部表情,實(shí)際上我們可以看到他何時(shí)會(huì)抬起眉毛,何時(shí)會(huì)張大嘴巴。當(dāng)然,他眼睛里的綠色激光會(huì)告訴我們他在看哪里。整個(gè)視頻中的每一幀畫(huà)面,我們都會(huì)對(duì)他的面部表情、面部動(dòng)作、頭部動(dòng)作做一些測(cè)量,之后我們用這些建立軟生物識(shí)別模型。
計(jì)算機(jī)科學(xué)專家法里德感嘆稱,制作假視頻的人越來(lái)越多,造假技術(shù)發(fā)展非常迅速,而相比之下,打假隊(duì)伍的力量顯得落后而薄弱。
美國(guó)五角大樓有一個(gè)研究團(tuán)隊(duì),又稱美國(guó)國(guó)防高級(jí)研究計(jì)劃局,也在一直研究如何抵抗“深度偽造”的威脅。
計(jì)算機(jī)科學(xué)家 圖雷克:這讓我們對(duì)圖片和錄像都不信任了。
而檢測(cè)偽造視頻的軟件,可以描述嘴唇運(yùn)動(dòng),將其與視頻中的聲音進(jìn)行比對(duì)。
計(jì)算機(jī)科學(xué)家 圖雷克:當(dāng)看到這些紅點(diǎn)時(shí),意味著說(shuō)話者的聲音實(shí)際上與其嘴唇運(yùn)動(dòng)不一致。
再來(lái)看這段視頻,看上去這兩人是坐在一起的,但通過(guò)測(cè)定他們臉上的光照角度,可以判定這是一個(gè)合成的視頻。
計(jì)算機(jī)科學(xué)家 圖雷克:它預(yù)估了一個(gè)人臉3D模型跟這個(gè)模型一起,軟件還估計(jì)了面部反射特征和光照角度。這里,我們主要使用了光照角度來(lái)看那些(特征)是否一致。
這是監(jiān)控錄像中的一段畫(huà)面,檢測(cè)軟件試圖預(yù)測(cè)物體的移動(dòng)方向。
計(jì)算機(jī)科學(xué)家 圖雷克:它檢測(cè)到了物體運(yùn)動(dòng)的不連續(xù)性,這給我們發(fā)出了信號(hào)來(lái)仔細(xì)查看圖片或視頻,(推斷出)也許畫(huà)面就是從這里被清除的。
檢測(cè)發(fā)現(xiàn)這段視頻被動(dòng)過(guò)手腳,另一輛車被從畫(huà)面中剪切掉了。
計(jì)算機(jī)科學(xué)家 圖雷克:這是一個(gè)貓和老鼠的游戲,拆穿假圖片或視頻的層面越多,給造假者形成的壓力也就越大。
兩年前,美國(guó)發(fā)布《人工智能與國(guó)家安全》報(bào)告,明確將人工智能偽造技術(shù)列為威脅國(guó)家安全的重點(diǎn)技術(shù)。
作為人工智能發(fā)展大國(guó),中國(guó)也已經(jīng)在加強(qiáng)政策和技術(shù)方面的監(jiān)管,應(yīng)對(duì)人工智能新技術(shù)可能帶來(lái)的安全風(fēng)險(xiǎn)。
畢竟,當(dāng)聲音、指紋、人臉等重要的生物識(shí)別信息都開(kāi)始出現(xiàn)“高仿”時(shí),風(fēng)險(xiǎn)和隱患也將越來(lái)越多。