破局“眼見為假”: 誰在磨礪刺破Deepfakes之劍?

      2020-02-26 14:36:33

      文/海怪

      來源:腦極體

      自從攝影術發明的那一刻起,人們便開始孜孜不倦地進行著技術改造。在今天,沒有一家手機廠商不在追求更多的攝像頭、更高的像素、更先進的成像算法,似乎只為追求一張更逼真的影像。

      我們真的在追求“真”么?這幾乎是一個完全無法驗證的玄學問題。而我們卻很誠實地在做一些“去真存假”的事情。比如為照片添加濾鏡、為自拍磨皮美白、為視頻增添特效。再比如,我們興致盎然地把自己的臉替換到夢想中的明星身上。

      看來追求“真實自我”其實成了一種自欺,而騙過眼睛讓大腦愉悅才是人們“真香”的追求,至少在視覺層面尤為明顯。以前,當我們說到“以假亂真”、“惟妙惟肖”這些字眼的時候,往往帶有一種對藝術的敬意,因為這意味著常人難以實現的難度和巨大的成本。

      然而,隨著人工智能中GAN(對抗式生成網絡)的進化,讓靜態圖像、音視頻中人物生成變得日益逼真且廉價,類似Deepfakes這類AI換臉技術普及后,那么問題真的就來了。

      2017年,一個名為“DeepFakes”的開發者把AI換臉技術開源,打開了AI造假的潘多拉盒子。Deepfakes成為了這一技術的專有名詞。2019年初,隨著一段“楊冪換臉朱茵”的視頻火爆網絡,又開啟了中國的AI換臉元年。緊隨其后,各類AI換臉作品和應用不斷出現,AI換臉隨著普通人的 “嘗鮮”徹底走向了技術普及和產業失控。

      首先,最顯著的影響就是AI換臉所掀起的一場色情視頻造假的黑產狂歡。不僅針對公眾人物、明星,甚至于只要在社交媒體多次上傳自拍照,每個人都要面對這一威脅。

      更嚴重的是對于政治選舉、公共安全以及經濟體系的威脅。一段關于政客受傷、重病的假視頻可能引起國內的金融動蕩甚至嚴重沖突。一段假冒權威人士發布恐怖襲擊、疾病災害等假消息的視頻會引起群眾恐慌甚至暴力沖突。

      最為深遠的影響就是對于整個社會公信力的影響。越來越多的人從社交媒體獲得第一手信息。假視頻泛濫讓信息真偽難辨,比如刻意偽造的假新聞,模仿領導人、權威專家的權威信息。數以億計沒有專業辨識能力的普羅大眾會更容易輕信而被欺騙,引發更大的公信力危機。

      作為一項日趨成熟且普遍應用的技術,AI換臉已成不容忽視的存在。

      似乎除了色情造假產業的黑產狂歡外,受這一技術影響的相關幾方都亟需從當前困境中突圍。對于政府來說,如何合理立法以限制造假內容的生產和傳播又不越界妨礙民眾的言論自由?對于商業應用來說,如何合理商用這項技術又避免侵權或引發信任危機?對于社交媒體來說,如何合理地限制這類造假音視頻內容的傳播又不限制用戶的使用體驗?

      這些問題的解決,仍然亟待AI技術本身先行給出一套檢測和控制假視頻的解決方案。

      無限游戲:

      擊敗Deepfakes的AI檢測技術困境

      由技術引發的災難只能由更先進的技術來解決,這似乎是AI研究者的唯一邏輯。AI換臉的造假檢測技術,似乎成為這場技術困境突圍的最佳解決方案。

      但由于AI換臉的驗證檢測技術具有嚴重依賴以往模型的反應機制,即當前方法無法檢測新的Deepfakes算法。因此,AI換臉的檢測技術與造假技術將長期處在攻防賽狀態。

      最早向Deepfakes發難的是美國國防部DAPRA。早在2018年5月,他們就設立了“媒體鑒證”項目,并與紐約州立大學開發出一款“反換臉”AI刑偵工具,通過有效地預測眼睛是否眨動的狀態,當時準確率達到 99%。然而這款工具還沒推廣就失效了,因為Deepfakes技術進化了。

      2019年6月,加州大學伯克利分校和南加州大學的研究人員打造的AI檢測系統構建了高度個人化的“軟生物識別指標”,對于當時的假視頻的總體識別率超過了95%。但該技術也存在一些破綻,面臨被新的Deepfake算法反制的挑戰。

      因此,這場攻防戰的第一個困境就是技術演進的悖論。研究人員如果要提出一個更好的檢測技術之前,必須提出一種能夠勝過當前市面上流行的AI換臉技術的新方法。也就是說,就要先造出更鋒利的“矛”,才能有資格造出更可靠的“盾”。

      因為即使研究人員不如此做,隨著AI算力越發易得,GAN算法的不斷增強,AI換臉技術也在不斷升級完善。比如,近期英偉達公開了第二代人臉生成算法StyleGAN2的源代碼,它可以根據五官、發色生成自定義風格的人臉圖像。基于StyleGAN2也可以結合多張人臉圖像進行人臉融合,生成的合成圖像同時具備模板圖像特征與目標圖像特征,已經達到騙過眾多人臉識別系統的程度。

      第二個困境就是對抗AI造假的數據合法性的牽制。雖然網絡黑產有著龐大的Deepfakes假視頻數據,但因其違法和侵權屬性不可能用于研究。而AI換臉檢測需要大量的原始目標人臉以及替換后的人臉數據,因此,研究團隊必須花費時間和巨大成本創建合規的數據集。

      這一嘗試已經開始,2019年初,來自德國和意大利兩所大學的AI研究者基于YouTube視頻生成了一段包含1000段假視頻的FaceForensics++數據集,用于訓練鑒別造假視頻的神經網絡。9月底,谷歌宣布開源的包含3000段真假視頻的大型 Deepfakes 數據集,納入FaceForensics基準當中,供研究社區免費獲取并用于開發合成視頻檢測方法。

      面對當前這兩種技術困境,AI研究者有哪些方法可以應對呢?

      釜底抽薪與飽和攻擊:

      AI換臉檢測解題新思路

      近日,來自中國的兩個研究團隊給出了不同的解決以上技術困境的解決方案。一種方案類似釜底抽薪,即針對AI換臉的底層邏輯去開發新的算法,即使不需要更多的數據,也能取得很好的驗證效果。另一種解決方案則類似飽和攻擊,他們從現有的數據集為基礎,將數據集擴充到一個新的更大規模、更高質量的程度,從而應對更多樣化的人臉造假視頻的檢測。

      2020年1月,來自微軟研究院與北京大學的研究小組共同提出了一種全新的 AI 換臉框架FaceShifter,以及一種檢測偽造人臉圖像的方法Face X-Ray。前者可以極大提高換臉的高保真度,而后者則用于檢測出復雜偽造人臉圖像。

      FaceShifter生成的高保真度換臉圖像,可以很好保留目標人臉的頭部姿態、面部表情、光線、顏色、強度、背景以及其他遮擋物。其優勢之處在于該模型無需人工標注數據的訓練下即可生成任何人臉。

      簡單來說,FaceShifter與之前的AI換臉方法相比,效果表現更優異。那這意味著,研究者同時提出的人臉造假的檢測工具必須更加強悍。

      為此,Face X-ray提出了一種全新的人臉偽造的圖像檢測方法。它通過顯示偽造圖像的混合邊界和真實圖像沒有混合來實現是否存在造假的檢測。這一方法就像是給被檢測的圖像拍攝了一張X光片一樣,讓其混合輪廓顯露原型。

      同時,相較于之前有監督的人臉檢測方法會存在過度擬合的問題,Face X-Ray不需要依賴于與特定人臉操作技術相關的偽造圖像的知識。由于是無監督訓練,它的算法可以支持在不使用任何方法生成假圖像知識的情況下進行訓練。因此,它可以從更通用性的意義上來進行有效檢測。

      Face X-Ray在人臉造假的圖像檢測上采取了一種更根本的解決問題的思路,即我們與其知道一個圖像是如何造假,不如知道一個圖像如何才是真的。Face X-Ray的解題邏輯就是:真圖像不會合成。

      但可以預見的是AI換臉的技術演化也不會停步。比如說,AI換臉本身不再是A、B兩個面部圖像的混合疊加,而就是人臉生成算法基于A、B面部特征的直接生成新的一張面孔C。這樣Face X-Ray也面臨失效的嚴峻考驗。

      緊接著,商湯科技也加入這場攻防賽,他們則采用了類似飽和攻擊的戰術。據報道,商湯聯手新加坡南洋理工,推出了迄今為止最大的Deepfakes檢測數據集,DeeperForensics-1.0。該數據集包含60000個視頻,是現有同類數據集的10倍。

      研究者意識到,之前數據集中的視頻存在著數量少、質量低以及過于人為化的特點;同時在一些假視頻檢測中,訓練視頻和測試視頻存在高度相似性,這些讓人臉造假檢測的實際效力有待檢驗。所以,他們提出的解決方案就是提供一個盡可能包含了潛在變化的真實世界詳盡可能的數據集,用于增強人臉造假檢測模型的打造。當然,最終結果也驗證了質量好、數據量大、多樣性高的數據集可以明顯提高視頻人臉偽造的基準測試結果。

      在這個信奉暴力計算的時代,商湯實力演繹了一次“大力出奇跡”的策略,用飽和攻擊的方式去迎戰Deepfakes層出不窮的狡計,而這一工作確實給后面的研究者提供了研究的便利。

      目前,AI換臉的檢測技術仍是少數研究機構的實驗品。但隨著AI換臉技術的日臻完善,社交媒體以及眾多互聯網平臺如何利用AI檢測工具做好換臉圖像以及假視頻的甄別,已經是迫在眉睫的事情。

      被技術重塑的未來:

      反Deepfakes的商業化可能

      AI換臉帶來的技術挑戰,除了以上AI研究機構和研究者的努力,還需要更多利益相關方的參與和支持。

      正如同這場“對抗賽”并非來自實驗室中華山論劍,背后還有像Facebook、Twitter、YouTube、這類平臺型機構,作為支持者和主導者。比如,去年9月,Facebook宣布啟動一項“Deepfakes視頻檢測挑戰賽”(DFDC),懸賞1000萬美元以期找到有效檢測利用Deepfakes技術生成的假視頻的方案。大賽提供一個數據集和排行榜,通過撥款和獎勵方式以刺激行業創造新的檢測工具,從而防止被AI操縱的媒體誤導普通用戶。這無疑給中小AI研究機構很大的鼓勵和資金支持。

      要說其背后原因,自然是因為社交媒體是造假視頻傳播的主要陣地,也是放大其不良影響的重要因素。人們常說造謠一張嘴、辟謠跑斷腿,當Deepfakes制造的虛假視頻在Facebook、Twitter上瘋狂傳播時,就已經造成了不可挽回的損失。而苦主想要追責時,第一步要做的就是問責平臺方。為了保證平臺上內容的真實可控,社交媒體企業必然要找到Deepfakes視頻的甄別方式。

      因為Deepfakes帶來的負面效應與名人政客、社交媒體平臺有著切實的利益關聯,所以Deepfakes檢測技術也有著很明晰的商業前景。例如在未來,社交媒體采購Deepfakes甄別技術,將其加入平臺視頻發布審核流程當中,很可能會成為一種常態。同時面對假視頻泛濫的情況,或許還有可能出現權威的“視頻檢驗機構”,幫助受害者證實視頻的真假。

      更重要的是,AI換臉代表的造假技術的狂潮不可逆轉,我們也必須學會更好地適應這一趨勢。就像PS的普及讓我們對圖像的造假已經基本免疫一樣,AI造假視頻的普及也會讓人們逐漸適應,只不過,對于大多數人而言,需要付出的學習成本和認知轉變的成本有些高昂。在這一過程中,不論是技術開發者還是傳播平臺,都有責任向用戶進行宣教。

      當“眼見為實”的邊界真正被打破,我們看待世界的規則需要重新被塑造。首先,向大眾普及Deepfake這項技術也變得非常重要。就如同身體對抗病毒的最好方式,就是通過注射疫苗先增強身體的抵抗力。其次,當人們意識到眼見的一切視頻都有可能為假的時候,人們又可能會更重視有公信力和權威性的媒體信息平臺。

      這也許是“眼見為假”時代帶給人們的更多的文明副產品之一。

      關閉
      精彩放送
      亚洲一区二区三区高清视频| 亚洲AV乱码一区二区三区林ゆな| 亚洲国产精品久久久久婷婷老年 | 国产91精品一区二区麻豆亚洲| 精品久久亚洲一级α| 亚洲国产韩国一区二区| 91在线亚洲精品专区| 亚洲视频在线观看一区| 久久精品夜色国产亚洲av| 国产AV无码专区亚洲AV手机麻豆| 亚洲精品NV久久久久久久久久| 成人亚洲综合天堂| 亚洲精品高清一二区久久| 亚洲日韩国产精品乱| 亚洲天堂在线视频| 亚洲午夜久久久影院伊人| 亚洲日产无码中文字幕| 亚洲AV无码久久| 噜噜噜亚洲色成人网站∨| 精品日韩亚洲AV无码| 亚洲综合色一区二区三区小说| 亚洲成人免费电影| 亚洲乱码中文字幕小综合| 亚洲成人激情小说| 亚洲AV性色在线观看| 亚洲av无码天堂一区二区三区| 亚洲国产成人久久精品99| 国产乱辈通伦影片在线播放亚洲| 国产亚洲精品福利在线无卡一 | 久久久久精品国产亚洲AV无码| 国产成+人+综合+亚洲专| 亚洲日本一线产区和二线产区对比| 亚洲AV成人一区二区三区观看| 国产午夜亚洲精品不卡| 亚洲一区无码精品色| 亚洲αv久久久噜噜噜噜噜| 自怕偷自怕亚洲精品| 亚洲国产91在线| 国产精品亚洲精品久久精品| 亚洲无码高清在线观看| 亚洲VA成无码人在线观看天堂|