決定一樣事物的好與壞,往往在于使用它的人。在一項(xiàng)技術(shù)的研究和發(fā)展過(guò)程中,許多人可能都沒(méi)想過(guò)未來(lái)將如何利用它,以及會(huì)帶來(lái)怎樣的結(jié)果。
上月,三星AI研究室創(chuàng)建了新的工具,通過(guò)機(jī)器學(xué)習(xí),只要有幾張圖片,就可以合成為虛擬的視頻。
通常,要做出以假亂真的視頻需要大量數(shù)據(jù)支持。但這項(xiàng)新的deepfake技術(shù)不再需要大量數(shù)據(jù),新的神經(jīng)網(wǎng)絡(luò)只需要少量數(shù)據(jù)就能生成新的人臉信息甚至是視頻,也就是說(shuō)一張普通照片就能偽造一段視頻。
不只是面部表情,口型和聲音也可以造假。
此前,一批來(lái)自斯坦福大學(xué)、馬克斯普朗克信息學(xué)研究所、普林斯頓大學(xué)和Adobe Research的研究人員組織了一個(gè)團(tuán)隊(duì),他們創(chuàng)建了一種算法,能編輯頭部特寫(xiě)的對(duì)話視頻。
這種應(yīng)用從各種視頻片段中提取講話時(shí)的唇部動(dòng)作,并采用機(jī)器學(xué)習(xí)將它“移植”到目標(biāo)視頻中,讓觀眾看起來(lái)更自然。
耳聽(tīng)為虛,連眼見(jiàn)也是假的。而有關(guān)“變聲”的技術(shù)更是已經(jīng)非常常見(jiàn)了,拿出你的手機(jī),只要一個(gè)輸入法就能實(shí)現(xiàn)。
同樣的,我們之前介紹過(guò)的手機(jī)應(yīng)用,已經(jīng)可以做出非常逼真的性別轉(zhuǎn)換照片、視頻。還有什么是可以相信的?
可能不久的將來(lái),當(dāng)別人從你的社交網(wǎng)絡(luò)上抓取一張照片,只需要一部手機(jī)就能給你做出一段連你自己都從未見(jiàn)過(guò)的“真實(shí)視頻”了。
AI技術(shù)在圖像領(lǐng)域的飛速進(jìn)步,已經(jīng)到了不得不警覺(jué)的地步。蘋(píng)果CEO蒂姆·庫(kù)克上周日在斯坦福大學(xué)畢業(yè)演講上提到,“如果你建了一個(gè)制造混亂的工廠,你就不能逃避你對(duì)這些混亂的責(zé)任。”
Adobe瘋起來(lái),連自己都打
*近,Adobe和加州大學(xué)伯克利分校的研究人員做了一套工具,不僅可識(shí)別出人像照片中被修改過(guò)的部分,還能預(yù)估原圖的模樣。
為了制造這個(gè)工具,研究人員首先寫(xiě)了個(gè)腳本,自動(dòng)用液化工具修了一大把人像圖片,用作神經(jīng)網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù)。結(jié)果令人驚喜,測(cè)試數(shù)據(jù)顯示,人類志愿者識(shí)別出圖片真?zhèn)蔚恼_率只有53%,算法的正確率卻高達(dá)99%。
更難得的是,算法不僅可辨別圖片是否有經(jīng)過(guò)修改,落實(shí)修改過(guò)的地方,更能夠恢復(fù)出一個(gè)大概的原圖。
目前,該算法只能識(shí)別經(jīng)Photoshop液化工具處理的照片,無(wú)法應(yīng)用于其它工具修出的效果,也只能應(yīng)用于人臉,不過(guò),團(tuán)隊(duì)接下來(lái)會(huì)繼續(xù)將“還原按鈕”研究拓展到更多領(lǐng)域,譬如修身和磨皮。
為什么要研發(fā)這類工具?Adobe在官方博客中寫(xiě)道:“我們對(duì)于Photoshop和其它Adobe創(chuàng)意工具在世界上的影響力感到很自豪,但同時(shí)也意識(shí)到我們科技潛在的道德延伸影響。虛假內(nèi)容已成為了一項(xiàng)日益緊迫的嚴(yán)重問(wèn)題。”
雖然這一工具還有諸多限制性,但每一個(gè)進(jìn)步都有意義。