為了搞懂AI的「腦回路」,騰訊走出了重要的一步
人工智能可以幫助我們進行決策,但誰能來解釋 AI 做出的判斷對不對呢?
2020 年 6 月,杜克大學一項發(fā)表在 AI 頂會 CVPR 的研究曾經引發(fā)人們的討論熱潮。一個名為 PULSE 的人工智能算法可以把加了馬賽克的人臉照片恢復成清晰的面部圖像。
PULSE 模型使用著名的生成對抗網絡 StyleGAN 來生成高分辨率圖像,與其他方法相比生成的圖片效果更好,清晰度更高,細節(jié)也更加豐富。
不過人們在測試之后也發(fā)現了一些問題,比如你把美國前總統(tǒng)奧巴馬的打碼照片交給 AI,它會將其還原成一個白人:
在 PULSE 的「偏見」被曝光后,人工智能社區(qū)瞬間被引爆,項目作者首先給出了回應,表示出現這種情況可能是因為 StyleGAN 的訓練數據集,也有可能存在其他未知因素。
人工智能領域的先驅,圖靈獎獲得者 Yann LeCun 對此甚至還在社交網絡上和人們論戰(zhàn),他先是解釋為什么 PULSE 會出現這樣的偏見,但并未引來普遍的認同。
之后 Yann LeCun 又在多條推文中解釋了自己關于偏見的立場,由此引發(fā)的討論遠遠超出技術的范疇。
對此,從事數據科學領域超過十年的 Luca Massaron 認為,盡管從技術角度來看 Yann LeCun 是完全正確的,但看看這種觀點被拋出之后公眾的反應,你就會知道談論它是多么的敏感。
PULSE 還只是一項學術研究,去年在 Facebook 的推薦算法中,包含黑人與白人平民和警察發(fā)生爭執(zhí)的片段被標記為「有關靈長類動物的視頻」的事件引發(fā)了軒然大波,臉書一度禁用了視頻推薦功能并道歉。
在獲得廣泛應用的背后,由于 AI 是由大規(guī)模數據驅動,無需闡明推理邏輯性的方法,所作出的「統(tǒng)計規(guī)律」判斷經常會受到人們的質疑。
可解釋性,AI 的發(fā)展的重要方向
深度學習的運行機制難以理解,對于 AI 工程師們來說就像「煉丹」——難以溯因,難以調參,對于大眾和監(jiān)管機構而言則是個「黑箱」——不知如何運作,也不知它給出的結果是否公正。
雖然并非所有人工智能系統(tǒng)都是黑盒,AI 也并不比傳統(tǒng)形式的軟件更加不可解釋,但在人工智能模型復雜度直線上升的今天,問題正在逐漸變得明顯,AI 越來越先進,我們面臨的挑戰(zhàn)也越來越大。
人們一直在各個方向上,為 AI 技術的可解釋性而努力著。
2010 年,吳恩達等人在 Google AI 發(fā)表的「識別貓」研究中,神經網絡通過樣本學習理解了貓的概念,通過特征可視化方法我們可以看到算法學習的結果。
近年來,各國面對人工智能技術落地的政策著重強調了保護隱私和可解釋性。2018 年 5 月,有「史上最嚴格的隱私和數據保護法」之稱的歐盟《通用數據保護條例》(GDPR)正式生效。該法案被稱為是 20 年來數據隱私條例的最重要變化,同時,有關「算法公平性」的條款要求所有公司必須對其算法的自動決策進行解釋。
在我國,去年 8 月通過的《個人信息保護法》第 24 條也明確要求必須確保自動化決策的透明度和結果公正。
如何才能讓人工智能在帶來便利的同時保證可解釋性?這意味著我們需要構建起可信的 AI 體系。在業(yè)界看來,在 AI 技術應用時考慮可解釋性,需要考慮公平性并消除偏見,減小模型漂移,實行風險管理,在模型部署的全生命周期進行持續(xù)監(jiān)控,最終形成的工具體系需要在多種不同硬件環(huán)境下部署。
可解釋 AI 并非算法模型中某個獨立的環(huán)節(jié)或具體工具,要想構建可解釋 AI,就需要在 AI 模型整個生命周期的每個步驟持續(xù)介入,在每個環(huán)節(jié)都構建不同的可解釋方法。近幾年來,眾多科技企業(yè)紛紛加大投入,構建了各種可解釋 AI 相關工具和服務。
在 AI 模型構建的數據準備階段,微軟提出了 Datasheets for Datasets,用于記錄數據集的創(chuàng)建、組成、預期用途、維護等屬性,關注數據集是否存在偏見。
而谷歌提出的 Model Cards 工具包則主要關注模型的部署和監(jiān)控環(huán)節(jié),可報告機器學習模型的出處、效果和道德信息評估,對算法本身的表現提供解釋。
國內的互聯網企業(yè)也在采取行動。比如,美團在去年 9 月發(fā)布文章,公開了關于配送時間的四種評估算法,介紹了預估送達時間背后的算法邏輯。
從機制上來看,業(yè)內實現算法可解釋的主流方式有「事前可解釋性」(Ante-hoc)和「事后可解釋性」(Post-hoc)兩種。顧名思義,前者使用的算法結構相對簡單,可以通過觀察模型本身來理解模型的決策過程,又可稱之為「內在可解釋模型」。事后可解釋方法則是給定訓練好的模型及數據,嘗試理解模型預測的原理。目前業(yè)界流行的大部分 AI 可解釋機制屬于事后可解釋的范疇。
構建 AI 系統(tǒng)的說明書
人工智能技術發(fā)展到現在,人們大多數時間都在性能上應用上作努力,如今對于可解釋 AI 的研究可以說才剛剛開始。我們不能為了追求效率忽視 AI 系統(tǒng)的公平性和透明度,也不應該完全反過來,對新技術簡單持不接受態(tài)度。
1 月 11 日,在騰訊舉行的科技向善創(chuàng)新周活動中,騰訊研究院、騰訊天衍實驗室、騰訊優(yōu)圖、Tencent AI Lab 等機構聯合完成的《可解釋 AI 發(fā)展報告 2022——打開算法黑箱的理念與實踐》正式發(fā)布。
該報告用超過三萬字的篇幅,對于可解釋 AI 的現狀進行了概述,展望了這一領域的發(fā)展趨勢。此外,該報告對可解釋 AI 未來的方向提出了一些看法。
從 1 月 17 日起,該報告可在騰訊研究院的微信公眾號下載。
報告鏈接(或點擊文末「閱讀原文」):https://docs.qq.com/pdf/DSmVSRHhBeFd0b3Zu
報告指出,在不同的領域,面對不同的對象,人工智能解釋的深淺與目標都存在區(qū)別。在對于 AI 可解釋性要求相對較高的醫(yī)療、教育、金融、自動駕駛等領域中,存在不同的解釋方法;另一方面,對于監(jiān)管、終端用戶和開發(fā)者來說,對于可解釋性的需求也各不相同。這意味著可解釋 AI 是一個龐雜的領域,需要業(yè)界和學界共同努力,構建一個完整的體系。
同時,對 AI 應用系統(tǒng)的透明性與可解釋性要求,需要考慮效率、安全、隱私、網絡安全、知識產權保護等目的平衡,界定不同場景的最小可接受標準,必要時采取常規(guī)監(jiān)測、人工審核等機制,不應僅限于算法的可解釋性。
來自業(yè)界、學界的專家均對《可解釋 AI 發(fā)展報告 2022》的發(fā)布表示歡迎:
「可解釋的 AI 好比一個老師在大學里面教課——我們需要注意跟學生的互動,講的東西學生得聽懂,聽了得有受益。這就需要我們和學生之間有更多的了解,」微眾****首席人工智能官楊強說道。「人工智能不是孤立存在的,它必須在和人互動的情況下才能產生效果。這份報告開了一個好頭,在這個基礎上我們可以展開長期的研究?!?/p>
除了行業(yè)研究,騰訊近年來也在可解釋 AI 技術方面有了諸多成果。
自 2014 年起,深度學習技術發(fā)生了巨大的進步,識別準確率從 96.3% 提升到了 99.5%,直接促成了人臉識別技術的實用化。最近疫情期間,需要用到人臉識別做身份驗證的場景越來越多。在騰訊支持的健康碼上,一年累計亮碼次數已超過 240 億次。
騰訊優(yōu)圖實驗室在人臉識別任務中構建了非監(jiān)督的訓練方式。在驗證交互過程中對圖片的選擇進行了優(yōu)化。在特征層面上,算法又引入了馮 · 米塞斯分布來對人臉特征進行建模,將模型學到的特征表示為概率分布,在圖像識別的過程中,AI 除了輸出相似度之外,還可以輸出自信度,為人們提供了額外的解釋。
優(yōu)圖提出的可解釋人臉識別技術。
騰訊覓影《肺炎 CT 影像輔助分診及評估軟件》是騰訊首款獲得國家****品監(jiān)督管理局第三類醫(yī)療器械注冊證的輔助診斷軟件產品。其可用于肺部 CT 影像的顯示、處理、測量和肺炎病灶識別,并不單獨給出對患者的診斷意見,而是采取與人類醫(yī)生結合的方式進行診斷。
這種方式大幅提高了醫(yī)生的工作效率,針對 AI 技術人員則滿足全局可解釋性。
騰訊天衍可信可解釋疾病風險預測模型,其中綠色箭頭表示增強主要輸出可解釋性的輔助輸出。
此外,軟件研究資料中對于訓練及測試數據的來源、數量、多維分布進行了詳盡分析,可幫助開發(fā)者和用戶理解模型特性,消除因數據偏移而導致模型輸出結果問題的疑慮。
可解釋 AI 的未來
可解釋 AI 是一個新興的研究領域,現在還缺乏統(tǒng)一的理論框架和技術路線。我們現在也很難找到準確率很高,同時可解釋性極好的算法。更多的時候,我們需要進行效率與可解釋性之間的選擇。
從技術的角度看,深度學習可解釋性的矛盾就像 20 世紀初物理學中的「烏云」,反映了人們對于新發(fā)現事物理解的缺失。在這些方向的研究對于技術進步將會起到巨大的推動作用。從方法上,研究人員正在通過理論和實驗兩條道路試圖理解算法運作的機制。
而在實踐過程中,我們需要注意到這一問題是多元性的:針對不同的算法、不同的領域和不同的受眾需要有不同的標準。
「可解釋性就像物理學定義的邊界函數——當我們進行優(yōu)化時,總要定義一個邊界的共識??山忉尵褪羌纫獙Ψ嚼斫猓忠男阅芨?,這是一件非常難的事?!箺顝姳硎荆肝艺J為這會是一個長期存在的問題。解決方法或許是在一個細分領域里,根據領域知識來給予回答,為我們指明方向,進而逐漸推廣?!?/p>
隨著技術的進步和制度的完善,期待在不久的將來,我們能夠建立起一套完整可信的可解釋 AI 體系。
*博客內容為網友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。