還記得權(quán)力的游戲第八季么? Jon Snow也加入了千萬罵編劇的粉絲的陣營,并且因此向粉絲道歉。
這個視頻當(dāng)然是假的,他嘴巴的移動方式看起來就很奇怪。
這是一個DeepFake生成的視頻,一個用來娛樂或欺騙大眾人工智能產(chǎn)物。
之前文摘菌也報道過,這項(xiàng)技術(shù)的上線后就廣受詬病,后來又有一個小團(tuán)隊(duì)開發(fā)出一款新的應(yīng)用DeepNude,可以一鍵實(shí)現(xiàn)脫衣,之后也因?yàn)榉错憪毫佣黄认录堋?/p>
人們對于無法分辨真假的恐懼是合理的,畢竟這種技術(shù)的出現(xiàn)將會滋生出許多想象不到的新的犯罪手段的誕生。
最近,南加州大學(xué)信息科學(xué)研究所計(jì)算機(jī)的研究人員發(fā)表一篇論文,研究通過訓(xùn)練AI尋找視頻畫面中的不一致性來檢測AI生成的假視頻,論文同時也被提交到CVPR 2019。
用AI對抗AI,來看看如何實(shí)現(xiàn)
對于偽造生成的假視頻,研究人員發(fā)現(xiàn),用于生成虛假視頻的主流AI模型(以及其他方法,如2016年的Face2Face程序),都是通過逐幀修改視頻且并不注意時間的連貫性。這會使得生成視頻中的人物移動看起來非常笨拙,人們通常會注意到這類奇怪的動作。
為了實(shí)現(xiàn)找出奇怪動作這一過程的自動化,研究人員首先要訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)—這種人工智能程序以個人的海量視頻為基礎(chǔ),可以用來“學(xué)習(xí)”人類在說話時如何移動的重要特征。
然后,研究人員使用這些參數(shù)將偽造視頻的堆疊幀輸入AI模型,以檢測視頻隨時間的不一致性。根據(jù)該論文,這種方法可以判斷“AI偽造視頻”,準(zhǔn)確率超過90%。
研究人員使用的模型是一個遞歸卷積模型(Recurrent convolutional model),這個深度學(xué)習(xí)模型能夠很好的提取到視頻中的信息。
整個過程分為兩步:
將視頻中的人臉進(jìn)行裁剪對齊
對于獲取人臉區(qū)域,研究人員使用由FaceForensics++提供的模型。
論文鏈接:
https://arxiv.org/abs/1901.08971
研究人員嘗試了兩種人臉對齊技術(shù)的結(jié)合:
顯式使用面部坐標(biāo)對齊,在參考坐標(biāo)系中,人的面部是先天決定的,所有的面孔是使用同一個參考坐標(biāo)系;
隱式排列對齊,使用STN。
在后一種情況下,網(wǎng)絡(luò)根據(jù)輸入圖像預(yù)測對齊參數(shù),因此可能學(xué)會縮放人臉的特定部分,必要時可將訓(xùn)練集中的預(yù)期損失最小化。
在這兩種情況下,核心思想都是我們希望循環(huán)卷積模型將人臉“tubelet”作為輸入,這是一個跨越視頻幀的時空緊密對齊的人臉序列。
所有篡改類型的檢測精度。結(jié)果表明,采用線性和雙向遞歸網(wǎng)絡(luò)的DenseNet性能最好
基于視頻人臉篡改的檢測
對于人臉篡改的檢測,我們使用一個類似于用于視覺識別的Long-term循環(huán)卷積網(wǎng)絡(luò)。
論文鏈接:
https://arxiv.org/abs/1411.4389
其中輸入是來自查詢視頻的幀序列,這個模型背后是在利用跨幀的時間差異。由于篡改是在逐幀的基礎(chǔ)上進(jìn)行的,研究人員認(rèn)為圖像中會存在時間差異。因此,由對人臉的篡改引起的低層次的差別則有可能表現(xiàn)為跨幀不一致特性的時間差異。
骨干網(wǎng)絡(luò)(Backbone encoding network)
在實(shí)驗(yàn)中,研究人員探索了ResNet和DenseNet兩種架構(gòu)作為模型的CNN分量。
無論采用何種架構(gòu),首先對主干網(wǎng)絡(luò)進(jìn)行FF++訓(xùn)練分割,使交叉熵?fù)p失最小化,進(jìn)行二值分類,形成特征,從合成人臉中識別真實(shí)人臉。然后用RNN對Backbone進(jìn)行擴(kuò)展,最后在多種策略下形成端到端訓(xùn)練。
RNN的訓(xùn)練策略
研究人員使用放置在骨干網(wǎng)絡(luò)不同位置的多個循環(huán)模型進(jìn)行實(shí)驗(yàn):用它將骨干網(wǎng)絡(luò)連接在一起,用來進(jìn)行特征學(xué)習(xí),將特征傳遞給隨時間推移聚合輸入的RNN。
在這里研究人員也嘗試了兩種策略:一是在骨干網(wǎng)的最終特性基礎(chǔ)上,簡單地使用單一的遞歸網(wǎng)絡(luò);二是嘗試在骨干網(wǎng)結(jié)構(gòu)的不同層次上訓(xùn)練多個遞歸神經(jīng)網(wǎng)絡(luò)。
所有篡改類型的ROC曲線。每一行對應(yīng)一個不同的篡改類型。左列為線性圖,右列為線性對數(shù)圖
希望能從源頭阻止deepfake假視頻
研究的共同作者Wael AbdAlmageed表示,這種模式可以被社交網(wǎng)站和視頻網(wǎng)站用于大規(guī)模識別deepfake假視頻,因?yàn)樗恍枰ㄟ^“學(xué)習(xí)”特定個體的關(guān)鍵特征來進(jìn)行識別,而是通用的。
“我們的模型對于任何人來說都是通用的,因?yàn)槲覀儾魂P(guān)注某個人的身份,而是關(guān)注面部運(yùn)動的一致性,”AbdAlmageed說,“我們將發(fā)布自己的模型,所以社交網(wǎng)絡(luò)無需訓(xùn)練新的模型。網(wǎng)站只需要在其平臺中加上該檢測軟件,以檢查上傳到平臺的視頻是否為deepfake生成的假視頻?!?/p>
機(jī)器學(xué)習(xí)的出現(xiàn)讓造假的成本逐漸變低,很多玩火不嫌事大的開發(fā)者還開發(fā)出許多不需要寫代碼直接可以造假的小軟件,盡管他們不一定是出于惡意,但是不排除軟件最后被用到“作惡”的地方。
雖然還有許多方法可以反“AI造假”(例如在拍攝圖片時生成"噪聲水印"),但利用AI來識別AI造假,并且將這項(xiàng)技術(shù)加載到視頻網(wǎng)站的審查過程中,那么從源頭大規(guī)模地阻止假視頻流向公眾,或許可以成為現(xiàn)實(shí)。
-
AI
+關(guān)注
關(guān)注
87文章
31711瀏覽量
270502 -
DeepFake
+關(guān)注
關(guān)注
0文章
15瀏覽量
6711
原文標(biāo)題:解鈴還須系鈴人!南加大訓(xùn)練AI檢測Deepfake“假視頻”,準(zhǔn)確率超90%
文章出處:【微信號:BigDataDigest,微信公眾號:大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
AI開發(fā)平臺模型怎么用
可靈AI全球首發(fā)視頻模型定制功能,助力AI視頻創(chuàng)作
AI項(xiàng)目管理平臺怎么用
《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得
基于迅為RK3568/RK3588開發(fā)板的AI圖像識別方案
基于迅為RK3588開發(fā)板的AI圖像識別方案
![](https://file1.elecfans.com/web2/M00/FD/AB/wKgZomad_yCAJVpTAAXNTMgrg94953.png)
![](https://file1.elecfans.com/web2/M00/FD/A3/wKgZomadzvmAEx9rAAYEXjd0lf0901.png)
![](https://file1.elecfans.com/web2/M00/FE/8B/wKgaomadzs-AErtEAAbh4xsnaCY228.png)
人臉檢測和人臉識別的區(qū)別是什么
防止AI大模型被黑客病毒入侵控制(原創(chuàng))聆思大模型AI開發(fā)套件評測4
ai_reloc_network.h引入后,ai_datatypes_format.h和formats_list.h報錯的原因?
NanoEdge AI的技術(shù)原理、應(yīng)用場景及優(yōu)勢
Stability AI與Morph AI共同推出一體化AI視頻創(chuàng)作工具
AI視頻年大爆發(fā)!2023年AI視頻生成領(lǐng)域的現(xiàn)狀全盤點(diǎn)
![<b class='flag-5'>AI</b><b class='flag-5'>視頻</b>年大爆發(fā)!2023年<b class='flag-5'>AI</b><b class='flag-5'>視頻</b>生成領(lǐng)域的現(xiàn)狀全盤點(diǎn)](https://file1.elecfans.com/web2/M00/C0/40/wKgZomXUEh2ABaktAAAal6NagG0595.png)
評論