久久久久久久视色,久久电影免费精品,中文亚洲欧美乱码在线观看,在线免费播放AV片

<center id="vfaef"><input id="vfaef"><table id="vfaef"></table></input></center>

    <p id="vfaef"><kbd id="vfaef"></kbd></p>

    
    
    <pre id="vfaef"><u id="vfaef"></u></pre>

      <thead id="vfaef"><input id="vfaef"></input></thead>

    1. 站長資訊網(wǎng)
      最全最豐富的資訊網(wǎng)站

      “換臉”底下的真相

      近期,一款名為ZAO的人工智能換臉App在國內(nèi)推出。用戶只需上傳一張正面照,就可以一鍵操作,把一些影視劇片段中演員的臉換成自己的,立刻生成視頻,還可通過社交媒體傳播,仿佛瞬間圓了明星夢。

      這一款換臉App很快就成了爆款,頗受歡迎,但也很快引起有關(guān)部門的注意,就在本周,工信部就網(wǎng)絡(luò)數(shù)據(jù)安全問題約談了相關(guān)公司。

      與此同時,“換臉” 軟件所依托的的一項AI技術(shù),也引起了人們的關(guān)注,它被稱為:DeepFake, 深度偽造。

      “換臉”底下的真相

      外國媒體報道:我們不能相信網(wǎng)上的所有東西,沒錯,深度偽造,深度偽造,深度偽造!是的,這到底是什么?深度偽造技術(shù)是利用人工智能合成以假亂真的視頻,這是一種高科技手段,可以把某些話塞進某人嘴里。

      “換臉”底下的真相

      Deepfake(深度偽造),“Deep learning”(深度學習)和“Fake”(偽造)結(jié)合而成的新單詞。

      簡單來說,這是一種可以實時偽造面部表情,并將其渲染成2D合成視頻的人工智能技術(shù)。

      “換臉”底下的真相

      早在一年多前, 2017年12月,一個名為“DeepFakes”的用戶在Reddit網(wǎng)站發(fā)布“假視頻”,將成人色情電影中演員的臉替換成了斯嘉麗·約翰遜等知名女演員的臉,畫面以假亂真。這為人工智能換臉技術(shù)吸引來了一大波流量,“DeepFake”深度偽造,也逐漸成為這一技術(shù)的代稱,同名算法也在Github開源,這是一個面向開源及私有軟件項目的托管平臺。

      “換臉”底下的真相

      網(wǎng)絡(luò)視頻打假專家 沃德爾博士:你好,今天我要和你討論一項影響名人的新技術(shù)。(記得)奧巴馬說特朗普是笨蛋,或者卡戴珊的說唱“因為我總是半裸嗎”?深度偽造!深度偽造!深度偽造!這也是深度偽造,我也不是阿黛爾,我是(打擊)網(wǎng)絡(luò)偽造的專家。深度偽造用來形容人工智能技術(shù)合成的視頻或音頻文件。它起初就是一種非常基本的面部更換,現(xiàn)在還成了電影特技。有了這樣的爆款技術(shù),天啊,我們不能相信任何東西了。沒錯,深度偽造就是可怕的反烏托邦。它們只會變得更容易,制作成本也更低廉。

      “換臉”底下的真相

      李浩是美國南加州大學的助理教授,“針幕動畫”公司的聯(lián)合創(chuàng)始人,這家公司推出的軟件可以讓用戶在玩虛擬現(xiàn)實游戲和購物時,即時定制自己的三維虛擬化身。

      “針幕動畫”聯(lián)合創(chuàng)始人 李浩:現(xiàn)在我制作了一個你的化身。

      美國公共廣播公司記者 奧布萊恩:一個和藹整潔的奧布萊恩。

      這種戲法可以用在任何人身上,當然也包括政界要人。

      “換臉”底下的真相

      美國公共廣播公司記者 奧布萊恩:現(xiàn)在我成了我們的總統(tǒng)(特朗普),日本首相安倍晉三。

      “換臉”底下的真相

      “針幕動畫”聯(lián)合創(chuàng)始人 李浩:當然,這個技術(shù)可以用來做一些真的很壞的事情。但主要目的絕不是如此,它被用于娛樂,一個有趣的工具,用于時尚、生活方式各方面,帶給我們更多體驗。

      但隨著技術(shù)的發(fā)展,這樣的合成圖像或視頻,真實度越來越強,欺騙性也越來越強。對此,研發(fā)者也不無擔憂。

      “換臉”底下的真相

      “針幕動畫”聯(lián)合創(chuàng)始人 李浩:我們都假設(shè)會有一個臨界點,屆時將無法區(qū)分真假。我的意思是,從視覺效果上說,我覺得你已經(jīng)可以做到非常接近了,只是取決于你花多少努力在上面。但就任何人都可以創(chuàng)建的內(nèi)容而言,我認為已經(jīng)非常接近這個臨界點了。

      “換臉”底下的真相

      2018年1月,一個名為FakeApp的軟件上線,宣稱可以實現(xiàn)“一鍵換臉”??缮傻囊曨l內(nèi)容包括惡搞美國總統(tǒng)特朗普,或是將自己的臉貼到好萊塢明星身上。

      雖然有的社交新聞?wù)军c比如Reddit網(wǎng)站,已明令禁止在自己的平臺傳播換臉視頻和圖片,但仍有超過9萬名用戶在Reddit上傳播這類視頻。

      “換臉”底下的真相

      計算機科學專家 法里德:我擔心這項技術(shù)被武器化,還擔心它如何影響我們整個社會。

      深度偽造不僅可以換臉,還可偽造聲音。

      “換臉”底下的真相

      據(jù)《華爾街日報》報道,今年3月,有犯罪分子利用“深度偽造”技術(shù),電腦合成某公司CEO的聲音,成功詐騙22萬歐元。

      電腦合成聲音真的這么難以識破嗎?

      “換臉”底下的真相

      2018年,三名蒙特利爾大學的博士聯(lián)合創(chuàng)辦了一家名為“琴鳥”(Lyrebird)的公司。該公司開發(fā)出了一種“語音合成”技術(shù),只要對目標人物的聲音進行1分鐘以上的錄音,把錄音丟給“琴鳥”處理,就能得到一個特別的密鑰,利用這個密鑰可以用目標人物的聲音,生成任何想說的話。

      “換臉”底下的真相

      “琴鳥”創(chuàng)始人:你需要錄自己幾分鐘的聲音。

      彭博社記者 萬斯:上千個字母在業(yè)余作家的屏幕上跳動,當你開始像這樣吃東西時,就會有問題,你們最好退出政治圈,別干了。我不知道它怎么工作的,現(xiàn)在創(chuàng)建我的數(shù)字聲音。創(chuàng)建你的數(shù)字聲音至少需要一分鐘,一分鐘,我的天啊。

      語音錄制完后,“琴鳥”會自動運轉(zhuǎn)合成出你的數(shù)字聲音。

      這時,只需要向電腦輸入想說的話,就可以用新合成的你的聲音說出來。

      記者萬斯的數(shù)字合成聲音:人工智能技術(shù)似乎發(fā)展非常快,我們該感到害怕嗎。

      彭博社記者 萬斯:我的確聽到了,真的很有意思。我只是隨便挑了,我從沒說過的話。

      而且,“琴鳥”還能在合成聲音中加入“感情”元素,讓聲音聽上去更逼真。

      “換臉”底下的真相

      彭博社記者 萬斯:現(xiàn)在為了實驗一下我的電腦合成音,我要給我親愛的媽媽打個電話,看看她是否能聽出來。嗨,媽媽,你們今天什么安排。

      萬斯的母親:今天一早家里沒電了,我們正在房子里溜達。

      萬斯:我剛剛下班,等著接兒子回家。

      萬斯的母親:好的。

      萬斯:我覺得我可能感染了病毒。

      萬斯的母親:那你感覺不舒服,是嗎?

      萬斯:哈哈,我剛才是和你搗亂,你剛才在和電腦說話。

      萬斯的母親:我感覺在和你說話,真是奇妙。

      萬斯:你覺得嚇人還是覺得不錯。

      萬斯的母親:如果涉及到非常重要的事情,真的挺嚇人的。不過現(xiàn)在是你了,對嗎?

      萬斯:我不知道。

      萬斯的母親:聽上去是你。

      萬斯:是嗎?

      萬斯的母親:是,是,聽上去就是你。

      “換臉”底下的真相

      彭博社記者 萬斯:很明顯,有些人被這項技術(shù)嚇壞了。因為我們已經(jīng)讓現(xiàn)實真相變得模糊不清。

      “換臉”底下的真相

      “琴鳥”創(chuàng)始人:當然,的確存在有人利用這項技術(shù)做壞事的風險。但是,科技不可能停止發(fā)展,所以我們決定選擇符合道德的做法,將技術(shù)展示給人們,讓人們知道這項技術(shù)的可行性,讓他們提高警惕。

      “換臉”底下的真相

      網(wǎng)絡(luò)安全公司Pindrop在2018年五月對美英德法四國共500家企業(yè)展開網(wǎng)上調(diào)查,結(jié)果顯示,從2013年到2017年,語音欺詐案件的數(shù)量增加了350%,每638個欺詐電話中就有1個是人工合成聲音。

      “換臉”底下的真相

      瑞士蘇黎世大學研究員 烏德里什:長久以來,人類的聲音是(造假者)最大的挑戰(zhàn),因為每種聲音都極其復(fù)雜且獨一無二,它們幾乎不可能被偽造。但在最近幾年,(科技)取得了巨大進步,視頻素材和偽造聲音的結(jié)合造成了巨大的威脅。

      的確,有了成熟的聲音造假技術(shù),再配上偽造圖像,做出一條以假亂真、別有用心的視頻真的不難了。

      “換臉”底下的真相

      “深度偽造”假視頻:特朗普總統(tǒng)是個徹底的笨蛋,你看我永遠不會說這些話,至少在公共演講中(不會),但其他人會說,比如喬丹·皮爾。這是一個危險的時代,以后我們要對我們所信任的互聯(lián)網(wǎng)更加警惕。在這個時代我們需要可信的新聞來源,聽起來很簡單,但我們該如何發(fā)展,信息時代將決定我們是生存,還是成為某種糟糕的反烏托邦。謝謝。

      這段視頻看上去是美國前總統(tǒng)奧巴馬在發(fā)表演講,實際上卻是喜劇演員和電影制作人皮爾的表演,聲音和畫面都是通過軟件合成的。

      “換臉”底下的真相

      計算機科學專家 法里德:人工智能系統(tǒng)合成了奧巴馬的嘴,使其與音頻流保持一致,讓視頻看起來像是奧巴馬總統(tǒng)在說他之前從未說過的話。這叫作唇同步深度偽造。

      技術(shù)本無善惡,深度偽造可以被運用于趣味視頻、游戲以及廣告合作中,但惡意運用也會帶來嚴重后果。它可能會摧毀我們對現(xiàn)實的認知,使人們不敢再相信視頻、錄像。

      美國卡內(nèi)基國際和平基金會也警告稱,深度偽造正在帶來破壞性的影響,也會對反恐和國家安全造成危害。

      “換臉”底下的真相

      計算機科學專家 法里德:噩夢般的情況是,出來一段特朗普總統(tǒng)的視頻,他在視頻里說,我對朝鮮發(fā)射了核武器。有人黑進了他的推特賬號,這條消息被瘋狂傳播,短短30秒,全球核戰(zhàn)爆發(fā)。我覺得這可能嗎?不,但并非完全不可能,而且會把你嚇得半死,對嗎?但這并非不可能的事實,真的令人擔憂。

      從“深度學習”到“深度偽造”,照片、聲音、視頻都可輕松造假,而識別深度偽造則要比制作深度偽造難得多。

      當“眼見未必為實,耳聽未必為真”,我們又該怎么辦?

      “換臉”底下的真相

      扎克伯格“深度偽造”假視頻:這都要歸咎于Spectre漏洞,它告訴我誰掌控了數(shù)據(jù),誰就掌控了未來。

      今年6月,圖片分享網(wǎng)站Instagram出現(xiàn)這樣一段視頻。臉書公司創(chuàng)始人扎克伯格就大數(shù)據(jù)的威力發(fā)表演講。

      但很快,扎克伯格就辟謠說,自己從未說過這些話。事實上,這是以色列一家科技公司利用深度偽造技術(shù)合成而來的。

      略顯尷尬的是,臉書曾宣稱,該公司不會刪除假新聞,但會減少其在網(wǎng)站上的影響力,并顯示來自事實核查人員的信息。

      而Instagram總裁莫斯里也在接受采訪時表示,目前業(yè)界還沒有大規(guī)模的數(shù)據(jù)或標準對這些假視頻進行檢測。

      “換臉”底下的真相

      Instagram總裁 莫斯里:目前,我們還沒有應(yīng)對深度偽造的政策,我們正試著評估是否愿意這么做。如果要做,又該如何定義深度偽造。我覺得(此類事件)并不好。

      主持人蓋爾·金:你可以限制這種技術(shù),你有影響力。

      莫斯里:實際上,我想的不僅是把它撤下來,我認為問題在于,我們?nèi)绾我杂性瓌t的方式做到這一點。

      對此,《財富》雜志呼吁說,現(xiàn)在已經(jīng)到了科技公司、學術(shù)界和政府共同努力尋找解決方案的時候了。

      “換臉”底下的真相

      6月13號,美國眾議院情報委員會召開關(guān)于人工智能深度偽造的聽證會,公開談?wù)摿松疃葌卧旒夹g(shù)給國家、社會和個人帶來的風險,以及該采取的防范和應(yīng)對措施。

      目前,世界多國也都開始進行立法,強化對人臉信息收集和識別技術(shù)應(yīng)用場景的約束。但所有努力都離不開社交媒體平臺的配合。

      “換臉”底下的真相

      計算機科學專家 法里德:但大多數(shù)情況下,社交媒體平臺對如何處理這類非法內(nèi)容、有害內(nèi)容、不實信息、假新聞、選舉篡改、非自愿的色情等內(nèi)容都顯得漫不經(jīng)心,因為這些內(nèi)容吸引眼球,對生意有好處。

      “換臉”底下的真相

      近日,臉書、微軟等科技公司和眾多學術(shù)機構(gòu)聯(lián)合發(fā)起一場“揪出深度偽造影像挑戰(zhàn)賽”,希望改善現(xiàn)有工具,加強對深度偽造圖片、聲音和視頻的檢測能力。

      9月5號,臉書宣布將為此投入1000萬美元。

      美國加州大學伯克利分校的研究人員也在研究如何應(yīng)對深度偽造。

      “換臉”底下的真相

      計算機科學專家 法里德:我們應(yīng)對這一問題的方式是,建立了軟生物識別模型。這些生物特征指的是像指紋、虹膜、面部。它沒有那么獨特,但其目的是捕捉微妙的面部表情、頭部移動,這些每個個體獨有的,但在假視頻制作時被打亂了的特征。

      “換臉”底下的真相

      計算機科學專家 法里德:首先我們會測量各種頭部移動和面部表情,你可以在這個視頻里,看到我們正在捕捉藍色盒子,正在捕捉他的頭部在三維空間里如何轉(zhuǎn)動。紅點是在定位他的面部表情,實際上我們可以看到他何時會抬起眉毛,何時會張大嘴巴。當然,他眼睛里的綠色激光會告訴我們他在看哪里。整個視頻中的每一幀畫面,我們都會對他的面部表情、面部動作、頭部動作做一些測量,之后我們用這些建立軟生物識別模型。

      計算機科學專家法里德感嘆稱,制作假視頻的人越來越多,造假技術(shù)發(fā)展非常迅速,而相比之下,打假隊伍的力量顯得落后而薄弱。

      美國五角大樓有一個研究團隊,又稱美國國防高級研究計劃局,也在一直研究如何抵抗“深度偽造”的威脅。

      “換臉”底下的真相

      計算機科學家 圖雷克:這讓我們對圖片和錄像都不信任了。

      而檢測偽造視頻的軟件,可以描述嘴唇運動,將其與視頻中的聲音進行比對。

      計算機科學家 圖雷克:當看到這些紅點時,意味著說話者的聲音實際上與其嘴唇運動不一致。

      再來看這段視頻,看上去這兩人是坐在一起的,但通過測定他們臉上的光照角度,可以判定這是一個合成的視頻。

      “換臉”底下的真相

      計算機科學家 圖雷克:它預(yù)估了一個人臉3D模型跟這個模型一起,軟件還估計了面部反射特征和光照角度。這里,我們主要使用了光照角度來看那些(特征)是否一致。

      這是監(jiān)控錄像中的一段畫面,檢測軟件試圖預(yù)測物體的移動方向。

      “換臉”底下的真相

      計算機科學家 圖雷克:它檢測到了物體運動的不連續(xù)性,這給我們發(fā)出了信號來仔細查看圖片或視頻,(推斷出)也許畫面就是從這里被清除的。

      檢測發(fā)現(xiàn)這段視頻被動過手腳,另一輛車被從畫面中剪切掉了。

      計算機科學家 圖雷克:這是一個貓和老鼠的游戲,拆穿假圖片或視頻的層面越多,給造假者形成的壓力也就越大。

      兩年前,美國發(fā)布《人工智能與國家安全》報告,明確將人工智能偽造技術(shù)列為威脅國家安全的重點技術(shù)。

      作為人工智能發(fā)展大國,中國也已經(jīng)在加強政策和技術(shù)方面的監(jiān)管,應(yīng)對人工智能新技術(shù)可能帶來的安全風險。

      畢竟,當聲音、指紋、人臉等重要的生物識別信息都開始出現(xiàn)“高仿”時,風險和隱患也將越來越多。

      贊(0)
      分享到: 更多 (0)
      網(wǎng)站地圖   滬ICP備18035694號-2    滬公網(wǎng)安備31011702889846號