博客專欄

EEPW首頁 > 博客 > 為了把 Deepfake 關進籠子,各大公司都拼了

為了把 Deepfake 關進籠子,各大公司都拼了

發(fā)布人:硅星人 時間:2022-06-04 來源:工程師 發(fā)布文章

Google Colab 終于宣布禁止 deepfake 項目

文|杜晨    編輯 | Vicky Xiao     題圖來源:谷歌、@MaYiLong0


曾幾何時,deepfake 在互聯(lián)網上格外猖獗,新聞和成人類內容成為了“換臉”的重災區(qū)。

由于受眾廣泛,市面上有不少現(xiàn)成的 deepfake 算法,供用戶使用,如 DeepFaceLab  (DFL) 和 FaceSwap。并且,由于深度學習技術的普及,也有一些低成本甚至免費的在線具,可以訓練這些算法,從而讓好事之徒達到其目的。

常用的工具之一就是谷歌的 Colab,一個免費的托管式 Jupyter 筆記本服務。簡單來說,用戶可以在 Colab 的網頁界面上運行復雜的代碼,“白用l”谷歌的 GPU 集群,從而訓練那些依賴高性能硬件的深度學習項目。

不過就在本月,谷歌終于對 colab 在線訓練 deepfake 痛下殺手。

前不久,DFL-Colab 項目的開發(fā)者 chervonij 發(fā)現(xiàn),谷歌本月中下旬將 deepfake  加入到了 Colab 的禁止項目列表當中:

圖片

圖片來源:谷歌

chervonij 還表示,他最近嘗試用 Colab 運行自己的代碼的時候,遇到了如下的提示:

“您正在執(zhí)行被禁止的代碼,這將有可能影響您在未來使用 Colab 的能力。請查閱FAQ頁面下專門列出的禁止行為?!?/span>

圖片

圖片來源:DFL Discord 頻道

然而這個彈出提示只是做出警告,并沒有完全禁止,用戶仍然可以繼續(xù)執(zhí)行代碼 (continue anyway)。

有用戶發(fā)現(xiàn),這次谷歌的行動應該是主要針對 DFL 算法的,考慮到 DFL 是目前網絡上 deepfake 行為最常采用的算法。與此同時,另一個沒那么流行,的 deepfake 算法 FaceSwap 就比較幸運,仍然可以在 Colab 上運行且不會彈出提示。

FaceSwap 聯(lián)合開發(fā)者 Matt Tora 接受 Unite.ai 采訪時表示,自己并不認為谷此舉是出于道德目的

“Colab 是一個偏向 AI 教育和研究方向的工具。用它來進行規(guī)?;?deepfake 項目的訓練,和 Colab 的初衷背道而馳?!?/span>

他還補充表示,自己的 FaceSwap 項目的重要目的就是通過 deepfake 來教育用戶關于 AI 和深度學習模型的運行原理,言外之意可能這才是 FaceSwap 沒有被 Colab 針對的理由。

“出于保護計算資源,讓真正需要的用戶能夠獲取這些資源的目的,我理解谷歌的這一舉動?!?br />

Colab 未來是否將會完全禁止 deepfake 類項目的執(zhí)行?對于不聽勸的用戶會有怎樣的懲罰?目前谷歌并未對此次修改作出回應,這些問題也暫時沒有答案。

不過我們可以確定的是,谷歌肯定是不希望 Colab 這樣一個出于公益目的,提供免費訓練資源的平臺,被 deepfake 開發(fā)者濫用。

Google Research 將 Colab 免費開放給廣大用戶,目的是降低深度學習訓練的硬件成本門檻,甚至讓幾乎沒有編程知識背景的用戶也能輕松上手——也即所謂的 AI 普及化 (democratization of AI)。

由于區(qū)塊鏈行業(yè)的爆發(fā)增長,以及疫情的次生影響,當今全球芯片(特別是 GPU) 很大程度上仍然處于斷供狀態(tài)。所以如果是為了節(jié)約資源而禁用 Colab 運行 deepfake 項目,確實可以理解。

不過除了 deepfake 之外,Colab 禁止的其它行為當中也的確包括大眾認知的惡意行為,比如運行黑客攻擊、暴力破解密碼等。

| deepfake 使用門檻變高?

在過去相當長一段時間里,對于初入門和中等水平的 deepfake 視頻創(chuàng)作者來說,想要實現(xiàn)一般可接受畫質(480p或720p以上)的內容輸出,自己卻沒有足夠的硬件配置的話,那么 Colab 幾乎是唯一的正確選擇

畢竟 Colab 界面簡單,上手輕松,訓練性能達到可以接受的水平,而且還免費,沒有理由不用。前面提到的一些 deepfake 算法項目也都針對 Colab 提供了代碼支持。

要討論 deepfake,很難避開新聞?chuàng)Q臉視頻和成人換臉內容。硅星人發(fā)現(xiàn),DFL 主項目頁面直接新聞視頻換臉作為主要使用場景之一,并且頁面中引導的一些用戶社群也都默許明星或私人復仇式 (revenge porn) 的換臉成人內容,使得此類內容大量存在。

圖片

現(xiàn)如今谷歌決定禁止 deepfake 類項目在 Colab 上運行,勢必將對私人的 deepfake 內容制作造成不小的打擊。

因為這意味著那些初級和中級 deepfake 制作者將失去一個最重要的免費工具,讓他們繼續(xù)制作此類內容的成本顯著提高。

不過據(jù)領域內一些內幕人士表示,那些最頂級的,將 deepfake 當作一門生意的專業(yè)制作者,已經基本實現(xiàn)了完全“自主生產”。

這群人通過非法銷售及會員募捐等方式,賺到了不少錢,可以投資更加高級的設備。現(xiàn)在他們可以制作分辨率、清晰和臉部原度更高的 deepfake 視頻,從而不用依賴 Colab 以及云計算等在線服務,就能實現(xiàn)穩(wěn)定生產和營收。

舉個例子:想要實現(xiàn)2k甚至4k分辨率和60fps的幀率,并且單片單次渲染用時在可以接受的范圍(比如幾天)的話,需要一個龐大的渲染農場,至少10臺電腦,每臺兩張支持 SLI 技術的英偉達 RTX 高端顯卡,以及上百GB的內存。這樣下來僅單臺的購置成本就已經相當高了,更別提還要算上運轉時的電費(渲染、冷卻等),可以說是一筆相當大的投資。

很遺憾,對于這群人來說,谷歌的新政策對他們完全起不到作用。只有全社會對 deepfake 帶來的負面影響提升重視,整個科技行業(yè)都行動起來,deepfake 的濫用問題才能得到解決。

| 把 deepfake 關進籠子里,各國、各大公司都在行動

谷歌

這的確不是谷歌第一次出面打擊 deepfake 內容制作了。在2019年,Google Research 就發(fā)表過一個大型視頻數(shù)據(jù)集。其背后谷歌在自己內部通過制作 deepfake 視頻的方式,從而試圖了解相關算法的工作原理。

對于谷歌來說,它需要提高識別 deepfake 的能力,從而在商業(yè)化產品環(huán)境里(最典型的就是 YouTube 用戶視頻上傳),從源頭上切斷惡意換臉視頻的傳播途徑。以及,第三方公司也可以使用谷歌開放的這個數(shù)據(jù)集來訓練 deepfake 探測器。

圖片

不過,近幾年 Google Research 確實沒有花太多心思在打擊 deepfake 上。反而,該公司最近推出的 Imagen,一個超高擬真度的文字生成圖片模型,效果非常驚人,反倒是引發(fā)了一些批評。

圖片

Imagen 文字轉圖片的效果   圖片來源:谷歌

微軟

微軟研究院在2020年共同推出了一項 deepfake 探測技術,名為 Microsoft Video Authenticator。它能夠檢測畫面中的渲染邊界當中灰階數(shù)值的不正常變化,對視頻內容進行逐幀實時分析,并且生成置信度分數(shù) (confidence score)。

微軟也在和包括紐時、BBC、加拿大廣播公司等頂級媒體合作,在新聞行業(yè)的場景下對 Video Authenticator 的能力進行檢測。

與此同時,微軟也在 Azure 云計算平臺中加入了媒體內容元數(shù)據(jù) (metadata) 校驗的技術。通過這一方式,那些被修改過的視頻內容可以和原視頻的進行元數(shù)據(jù)比對——和下載文件的時候比對 MD5 值差不多意思。

Meta

2020年,F(xiàn)acebook 宣布在 Facebook 產品平臺全面禁止 deepfake 類視頻。

然而這個政策執(zhí)行得并不徹底。比如,目前在 Instagram 上還可以經常見到那個著名的中國翻版馬斯克 deepfake 視頻(主要是從 TikTok 上轉發(fā)過來的)。

圖片

圖片來源:MaYiLong0|TikTok

行業(yè)層面,Meta、亞馬遜 AWS、微軟、MIT、UC伯克利、牛津大學等公司和機構在2019年共同發(fā)起了一個 deepfake 檢測挑戰(zhàn)賽,鼓勵更多、更優(yōu)、更與時俱進的檢測技術。

Twitter:

2020年 Twitter 封殺了一批經常發(fā)布 deepfake 視頻的賬號。不過對于其它 deepfake 內容,Twitter 并沒有完全限制,而是會打上一個標簽“被修改的內容”(manipulated media),并且提供第三方事實核查機構的檢測結果。

圖片

創(chuàng)業(yè)公司:

OARO MEDIA:西班牙公司,提供一套對內容進行多樣化數(shù)字簽名的工具,從而減少deepfake 等被修改過的內容傳播對客戶造成的負面影響。

Sentinel:位于愛沙尼亞,主要開發(fā) deepfake 內容檢測模型。

圖片

Quantum+Integrity:瑞士公司,提供一套基于 API 的 SaaS 服務,可以進行各種基于圖像類的檢測,能力包括視頻會議實時 deepfake、截屏或圖片“套娃”、虛假身份證件等。

圖片

國家(立法和行政)

中國:2020年印發(fā)的《法治社會建設實施綱要(2020 - 2025年)》進一步要求,對深度偽造等新技術應用,制定和完善規(guī)范管理辦法。

美國:2019年正式簽署生效的2020財年國防批準法當中包含了和 deepfake 相關的條文,主要是要求政府向立法機構通報涉及跨國、有組織、帶有政治目的的 deepfake 虛假信息行為。

加州、紐約州和伊利諾伊州都有自己的 deepfake 相關法律,主要目的是保護 deepfake 受害者的權益。

歐盟:GDPR、歐盟人工智能框架提議、版權保護框架、虛假信息針對政策等高級別法律文件,都對可能和 deepfake 有關的事務實現(xiàn)了交叉覆蓋。不過,整個區(qū)域級別目前并沒有專門針對 deepfake 的法律和政策。

在成員國級別上,荷蘭立法機構在2020年曾經要求政府制定打擊 deepfake 成人視頻的政策,以及表示會考慮將相關問題寫入該國刑法。



*博客內容為網友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



關鍵詞: Deepfake

技術專區(qū)

關閉