
網絡安全公司Pindrop在2018年五月對美英德法四國共500家企業(yè)展開網上調查,結果顯示,從2013年到2017年,語音欺詐案件的數量增加了350%,每638個欺詐電話中就有1個是人工合成聲音。

瑞士蘇黎世大學研究員 烏德里什:長久以來,人類的聲音是(造假者)最大的挑戰(zhàn),因為每種聲音都極其復雜且獨一無二,它們幾乎不可能被偽造。但在最近幾年,(科技)取得了巨大進步,視頻素材和偽造聲音的結合造成了巨大的威脅。
的確,有了成熟的聲音造假技術,再配上偽造圖像,做出一條以假亂真、別有用心的視頻真的不難了。

“深度偽造”假視頻:特朗普總統(tǒng)是個徹底的笨蛋,你看我永遠不會說這些話,至少在公共演講中(不會),但其他人會說,比如喬丹·皮爾。這是一個危險的時代,以后我們要對我們所信任的互聯(lián)網更加警惕。在這個時代我們需要可信的新聞來源,聽起來很簡單,但我們該如何發(fā)展,信息時代將決定我們是生存,還是成為某種糟糕的反烏托邦。謝謝。
這段視頻看上去是美國前總統(tǒng)奧巴馬在發(fā)表演講,實際上卻是喜劇演員和電影制作人皮爾的表演,聲音和畫面都是通過軟件合成的。

計算機科學專家 法里德:人工智能系統(tǒng)合成了奧巴馬的嘴,使其與音頻流保持一致,讓視頻看起來像是奧巴馬總統(tǒng)在說他之前從未說過的話。這叫作唇同步深度偽造。
技術本無善惡,深度偽造可以被運用于趣味視頻、游戲以及廣告合作中,但惡意運用也會帶來嚴重后果。它可能會摧毀我們對現實的認知,使人們不敢再相信視頻、錄像。
美國卡內基國際和平基金會也警告稱,深度偽造正在帶來破壞性的影響,也會對反恐和國家安全造成危害。
