美國(guó)國(guó)防部研發(fā)第一批發(fā)現(xiàn)人工智能換臉技術(shù)DeepFakes的工具
據(jù)外媒Techspot報(bào)道,美國(guó)國(guó)防部已經(jīng)通過(guò)其開(kāi)展的一項(xiàng)計(jì)劃研發(fā)出第一批用于發(fā)現(xiàn)取證工具。眾所周知,Deepfakes是使用機(jī)器學(xué)習(xí)在視頻中將一個(gè)人的臉部疊加到另一個(gè)人臉部的技術(shù)。它已經(jīng)被用來(lái)制作名人的視頻,機(jī)器人維修,并且通過(guò)正確的編輯,它可以完全令人信服。
然而,一些麻煩制造者也可以利用這些技術(shù)來(lái)制造宣傳虛假事件,欺騙大眾。出于這個(gè)原因,美國(guó)國(guó)防部一直非常有興趣開(kāi)發(fā)能夠檢測(cè)甚至打擊這種虛假鏡頭的工具。,《麻省理工科技評(píng)論》(MITTechnologyReview)報(bào)道稱(chēng),這些工具中的第一個(gè)已通過(guò)名為MediaForensics的美國(guó)國(guó)防高級(jí)研究計(jì)劃局(DARPA)計(jì)劃推出。該計(jì)劃最初是為了自動(dòng)化現(xiàn)有的取證工具而創(chuàng)建的。然而,該計(jì)劃已將重點(diǎn)轉(zhuǎn)移到開(kāi)發(fā)打擊AI制造偽造內(nèi)容的方法上。
創(chuàng)建DeepFakes的最有說(shuō)服力的方法是使用深度學(xué)習(xí)模型生成式對(duì)抗網(wǎng)絡(luò)(GAN)。為了使它工作,GAN必須使用被偽造者的幾張圖像。然后,它使用這些圖像來(lái)嘗試匹配疊加在其上的面部的角度和傾斜。我們?cè)诋?dāng)前GAN操縱的圖像和視頻中發(fā)現(xiàn)了微妙的線索,使我們能夠檢測(cè)到變化的存在,MediaForensics項(xiàng)目負(fù)責(zé)人MatthewTurek表示。
紐約州立大學(xué)的SiweiLyu教授講述了他和一些學(xué)生如何創(chuàng)造了一堆虛假視頻,試圖了解傳統(tǒng)的取證工具將如何工作。
我們制作了大約50個(gè)假視頻并嘗試了一系列傳統(tǒng)的取證方法。然而,在他們的實(shí)驗(yàn)過(guò)程中,他們很少注意到deepfakes。此外,在極少數(shù)情況下,這種運(yùn)動(dòng)看起來(lái)不自然。原因很簡(jiǎn)單;GAN被輸入靜止圖像,庫(kù)卡機(jī)器人驅(qū)動(dòng)器維修,幾乎所有對(duì)象的眼睛都是打開(kāi)的。
因此,Lyu和他的紐約州立大學(xué)學(xué)生正專(zhuān)注于創(chuàng)建一個(gè)尋找這個(gè)告示標(biāo)志的AI。他說(shuō)表示們目前的努力是有效的,但可以通過(guò)提供測(cè)試圖像眨眼的GAN圖像來(lái)欺騙他們。然而,他補(bǔ)充說(shuō),他們?cè)谧髌分杏幸环N秘密技術(shù),www.whsntf.cn,甚至更有效。
參與DARPA計(jì)劃的其他團(tuán)體的目標(biāo)是采用類(lèi)似的技術(shù)。達(dá)特茅斯學(xué)院的數(shù)字取證專(zhuān)家HanyFarid認(rèn)為,奇怪的頭部動(dòng)作、奇怪的眼睛顏色和其他面部因素等其他線索可以幫助確定視頻是否被偽造。
表示:我們正在努力開(kāi)發(fā)這些類(lèi)型的生理信號(hào),至少目前,這些信號(hào)很難被模仿。
稱(chēng),DARPA打算繼續(xù)舉辦MediaForensics競(jìng)賽,以確保該領(lǐng)域在進(jìn)一步發(fā)展時(shí)能夠跟上偽造技術(shù)。