“AI假臉王”泛濫,人臉識別還安全嗎?
在正式進(jìn)入人臉識別技術(shù)這個話題之前,我們先從整容手術(shù)的奇特歷史講起,沿著這個思維,一起探討人臉識別的前世今生。
本文引用地址:http://2s4d.com/article/201903/398318.htm仿真·易容術(shù)——整容手術(shù)
整容手術(shù)雖然是一種新型手術(shù)學(xué)科,但也有近百年的歷史。尤其是二戰(zhàn)時期,軸心國與同盟國的諜報部門、特工部門為了搞敵后搞破襲戰(zhàn),也有使用易容術(shù)的方法來讓己方特工人員冒充敵方人員實施破壞。
鑒于那個時代還未出現(xiàn)計算機和人臉識別技術(shù),易容后的特工容易蒙混過關(guān),只需要拿著偽造的證件和沖洗暗房制作的舊式“PS”照片,利用相似的長相,就可以輕易糊弄敵人。
在最近上映的俄羅斯紀(jì)錄片《破襲者》第一集當(dāng)中,講述了蘇聯(lián)內(nèi)務(wù)人民委員會(NKVD)特工尼古拉·伊萬諾維奇·庫茲涅佐夫冒充成德軍中尉保羅·威廉·西爾貝特混入德占區(qū)搞暗殺破壞的故事。
影片中展現(xiàn)的蘇聯(lián)選拔特工的方法代表了那個時代的特點,無外乎就是長相相似,易容手術(shù)難度低,可以熟練掌握敵國語言的人。被千挑萬選出來的特工,靠著一張臉便可以如入無人之境,穿梭于敵后。那是一個易容術(shù)稱霸沒有人臉識別技術(shù)的時代。
今天有了人臉識別技術(shù),并且識別能力日趨增強,網(wǎng)上已經(jīng)能看到不少能夠識別整容手術(shù)的人臉識別成功案例,但是“道高一尺,魔高一丈”的過關(guān)騙術(shù)也不在少數(shù)。畢竟,臉是一直露在外面的,可以任你涂抹和修改。
作為人工智能技術(shù)的一個代表,人臉識別技術(shù)今天已經(jīng)出現(xiàn)在大量應(yīng)用場景中。隨著這項科技的應(yīng)用逐步增多,圍繞人臉識別技術(shù)的種種質(zhì)疑和爭議也多了起來。
下面僅演示兩個例子,來探討一下人臉識別技術(shù)的現(xiàn)實困境。
全息投影·易容術(shù)——復(fù)活的鄧麗君
鄧麗君逝世23周年之際,日本節(jié)目《金SMA》利用全息投影技術(shù),使用全息投影復(fù)活了鄧麗君。在節(jié)目的畫面中,人們可以在360度全景攝影棚中看到鄧麗君1986年在《日本作曲大賞》演唱《我只在乎你》日文版的經(jīng)典片段。已經(jīng)去世23年的鄧麗君“復(fù)活”,栩栩如生,即便是攝像機隨意調(diào)換角度,靠近鄧麗君的投影,連著臺下觀眾真人一起拍攝,也讓人難辨真假。
全息投影技術(shù)用于懷念故去的親人,用于喚起一代粉絲對歌星的記憶,是一件很有意義的事,它可以為人類保存更多優(yōu)秀的文化元素,讓文藝之星或偉大人物“永垂不朽”。
換個角度,在此筆者開了個腦洞,如果全息投影被應(yīng)用于移動終端設(shè)備上,那有歪腦筋的人就有可能利用它投射的人像,破解人臉識別設(shè)備,從事犯罪活動。
假設(shè)鄧麗君去世的1995年,有了人臉識別技術(shù)應(yīng)用于銀行存取款用戶識別,那財迷心竅的人就會把鄧麗君的各種錄像帶信息復(fù)制加工成全息投影,選取需要的部分來攻破人臉識別系統(tǒng),盜取鄧麗君的巨額遺產(chǎn)。
PS做一張鄧麗君的圖片也花費一番功夫,更何況這是實景演播室!
攝像機靠鄧麗君投影那么近也看不出什么不對。
如此一來,那些明星大腕三天兩頭出現(xiàn)在電視屏幕中和影劇院屏幕中,留下了大量視頻素材,那他們的個人財產(chǎn)安全就有可能因為人臉識別的技術(shù)漏洞,而變得非常脆弱。
雖然上述內(nèi)容是假想,但是全息投影的技術(shù)現(xiàn)實給破解人臉識別技術(shù),也許會帶來不可預(yù)知的挑戰(zhàn),人臉識別技術(shù)的安全隱患和不可靠性值得進(jìn)一步探討。
視頻·易容術(shù)—— “Face2Face”AI直播換臉技術(shù)
德國紐倫堡大學(xué)在2016年發(fā)表了一篇face2face的論文,從技術(shù)上已經(jīng)實現(xiàn)了遠(yuǎn)程用模擬他人人臉進(jìn)行身份認(rèn)證。也就是說,黑客根本不需要你的人臉生物特征數(shù)據(jù),就可完成人臉進(jìn)行身份認(rèn)證。
美國斯坦福大學(xué)的研究團隊也在當(dāng)年研發(fā)出一款人臉跟蹤軟件Face2Face,它可以通過攝像頭捕捉用戶的動作和面部表情,然后使用Face2Face軟件驅(qū)動視頻中的目標(biāo)人物做出一模一樣的動作和表情,效果極其逼真。研究人員分別模仿了布什、奧巴馬、特朗普、普京,筆者看后覺得細(xì)思極恐,毫無PS痕跡!
由于其精準(zhǔn)的捕捉效果和實時化能力,F(xiàn)ace2Face在誕生之日起就引起了軒然大波。在其演示視頻下,無數(shù)網(wǎng)友質(zhì)疑這項技術(shù)將成為網(wǎng)絡(luò)詐騙、綁架勒索的幫兇,質(zhì)疑如果視頻電話的另一端,竟然不是你認(rèn)識的那個人,那將會是多么恐怖的一件事。
“AI假臉王”開源:新一代GAN攻破幾乎所有人臉識別系統(tǒng)
還記得英偉達(dá)去年推出的StyleGAN嗎?全新的生成器架構(gòu)讓這個“新一代GAN”生成的人臉真實到可怕?,F(xiàn)在,StyleGAN已經(jīng)開源,包括源代碼和官方TensorFlow實現(xiàn),都附有詳細(xì)使用說明。
以假亂真的精細(xì)人臉生成,令不少研究人員都驚呼:已經(jīng)無法分辨虛擬和現(xiàn)實!
上述人臉全部由計算機生成,StyleGAN的全新風(fēng)格遷移生成器架構(gòu)能控制發(fā)色、眼睛大小等臉部特征。
之前,大多數(shù)研究都集中在如何提高“換臉”技術(shù)上,也就是如何讓計算機生成超逼真的人臉。
誰料,這種技術(shù)發(fā)展的濫用造成了反效果,也即所謂的“DeepFake”?,F(xiàn)在,DeepFake已被用于指代所有看起來或聽起來像真的一樣的假視頻或假音頻。
去年底,Idiap 生物識別安全和隱私小組負(fù)責(zé)人、瑞士生物識別研究和測試中心主任 Sébastien Marcel 和他的同事、Idiap 研究所博士后 Pavel Korshunov 共同撰寫了論文,首次對人臉識別方法檢測 DeepFake 的效果進(jìn)行了較為全面的測評。
他們經(jīng)過一系列實驗發(fā)現(xiàn),當(dāng)前已有的先進(jìn)人臉識別模型和檢測方法,在面對DeepFake時基本可以說是束手無策——性能最優(yōu)的圖像分類模型 VGG 和基于 Facenet 的算法,分辨真假視頻錯誤率高達(dá) 95%;基于唇形的檢測方法,也基本檢測不出視頻中人物說話和口型是否一致。
看到這幾條新聞,我們不禁要反思,人臉識別等高科技的應(yīng)用是不是要認(rèn)真考慮一下社會舒適度和個人有效保護(hù)隱私的內(nèi)心需要。到底怎樣的身份識別能夠引領(lǐng)未來,這些林林總總的問題都需要每一個科技研發(fā)團隊、社會科學(xué)學(xué)者、法律人士認(rèn)真思考。
科技在發(fā)展的過程中,不可能是一片坦途,回顧科技發(fā)展史,尤其是充滿躁動的20世紀(jì),兩次世界大戰(zhàn)前后的許多發(fā)明都是以井噴和“你方唱罷我登場”的速度演繹著科技發(fā)明的“進(jìn)化論”,很難說誰永遠(yuǎn)對,誰一時錯,但有一條基本的原則是不變的,那就是能夠推動人類社會進(jìn)步,更好地維護(hù)人的權(quán)利和隱私,讓這個世界變得更美好,這樣的發(fā)明能夠走得更遠(yuǎn),發(fā)展得更好。
評論