“換臉”也逃不過數(shù)字偵探法眼
摘要:由人工智能技術(shù)合成的虛假視頻已達到幾可亂真的水平,美國國防部設(shè)立的研究項目現(xiàn)已開發(fā)出識別這些虛假視頻的首批工具。制作虛假視頻的最常見技術(shù)是使用機器學(xué)習(xí)技術(shù)將一個
由人工智能技術(shù)合成的虛假視頻已達到幾可亂真的水平,美國國防部設(shè)立的研究項目現(xiàn)已開發(fā)出識別這些虛假視頻的首批工具。
制作虛假視頻的最常見技術(shù)是使用機器學(xué)習(xí)技術(shù)將一個人的臉換到另一個人的臉上。由此產(chǎn)生的視頻,也被稱為深度偽造(Deepfake)視頻,不僅制作簡單而且逼真度驚人,經(jīng)熟練的視頻編輯人員進行進一步調(diào)整后,還可使其看起來更加真實。
深度偽造視頻使用了被稱為“生成建模”的機器學(xué)習(xí)技術(shù),其允許計算機在生成具有統(tǒng)計相似性的假實例之前從真實數(shù)據(jù)中學(xué)習(xí)。最新的深度偽造技術(shù)擁有兩個神經(jīng)網(wǎng)絡(luò)——生成對抗網(wǎng)絡(luò)(GAN),其共同工作可產(chǎn)生更有說服力的虛假視頻。
美國國防高級研究計劃局(DARPA)為此設(shè)立了“媒體鑒證”項目,以開發(fā)能識別深度偽造視頻的工具。該項目最初旨在實現(xiàn)現(xiàn)有鑒證工具的自動化,但最近將重點轉(zhuǎn)向了人工智能生成的虛假視頻。項目負責(zé)人馬修·特魯克表示,研究人員已在GAN操縱的圖像和視頻中發(fā)現(xiàn)了微妙的線索,從而使其能夠檢測到變化的存在。
紐約州立大學(xué)奧爾巴尼分校呂思偉教授領(lǐng)導(dǎo)的團隊開發(fā)了一種非常簡單的識別技術(shù)。研究人員在觀察深度偽造視頻時發(fā)現(xiàn),GAN技術(shù)生成的人臉很少眨眼,其一旦眨眼,眼球運動很不自然。這是因為,深度偽造視頻是基于對靜止圖像的訓(xùn)練生成的,而靜止圖像的眼睛一般來說都是睜著的。
參與DARPA媒體鑒證項目的其他團隊也在探索自動捕捉深度偽造視頻的類似技巧,如奇怪的頭部動作、特別的眼睛顏色等。
達特茅斯大學(xué)數(shù)字鑒證專家漢尼·費瑞德認為,視頻偽造者和數(shù)字偵探之間的人工智能博弈才剛剛開始,機器學(xué)習(xí)系統(tǒng)經(jīng)訓(xùn)練后往往可超越新的鑒證工具。呂思偉表示,熟練的偽造者可通過收集顯示一個人眨眼的圖像來繞過他的眨眼工具,但其團隊目前已經(jīng)開發(fā)出一種更有效的新技術(shù),要比偽造技術(shù)略勝一籌。(馮衛(wèi)東)
責(zé)任編輯:fl
(原標(biāo)題:科技日報)
查看心情排行你看到此篇文章的感受是:
版權(quán)聲明:
1.凡本網(wǎng)注明“來源:駐馬店網(wǎng)”的所有作品,均為本網(wǎng)合法擁有版權(quán)或有權(quán)使用的作品,未經(jīng)本網(wǎng)書面授權(quán)不得轉(zhuǎn)載、摘編或利用其他方式使用上述作品。已經(jīng)本網(wǎng)授權(quán)使用作品的,應(yīng)在授權(quán)范圍內(nèi)使用,并注明“來源:駐馬店網(wǎng)”。任何組織、平臺和個人,不得侵犯本網(wǎng)應(yīng)有權(quán)益,否則,一經(jīng)發(fā)現(xiàn),本網(wǎng)將授權(quán)常年法律顧問予以追究侵權(quán)者的法律責(zé)任。
駐馬店日報報業(yè)集團法律顧問單位:上海市匯業(yè)(武漢)律師事務(wù)所
首席法律顧問:馮程斌律師
2.凡本網(wǎng)注明“來源:XXX(非駐馬店網(wǎng))”的作品,均轉(zhuǎn)載自其他媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責(zé)。如其他個人、媒體、網(wǎng)站、團體從本網(wǎng)下載使用,必須保留本網(wǎng)站注明的“稿件來源”,并自負相關(guān)法律責(zé)任,否則本網(wǎng)將追究其相關(guān)法律責(zé)任。
3.如果您發(fā)現(xiàn)本網(wǎng)站上有侵犯您的知識產(chǎn)權(quán)的作品,請與我們?nèi)〉寐?lián)系,我們會及時修改或刪除。














豫公網(wǎng)安備 41170202000005號