AI也會“學壞”?都是人類搗的鬼!
隨著人工智能技術的普及,我們似乎開始“無條件”相信計算機算法所提供的結果,然而有些問題是不可忽略的。除了對就業(yè)產生的影響,由于人工智能往往基于人類提供的樣本數據進行學習,并且“來者不拒”,包括人類的“負能量”,因此,人工智能極有可能和小孩一樣學壞,在價值取向上出現扭曲。人類在學習過程中可能出現的任何一種認知偏差都有可能在人工智能系統(tǒng)的學習過程中出現。
本文引用地址:http://2s4d.com/article/201708/363653.htm這樣的事件已經在不斷發(fā)生,比如不久前Google公司的圖像識別程序將幾個黑人的面孔標記為大猩猩;LinkedIn的一個招聘廣告計劃顯示偏好是男性;而名為Tay的Microsoft聊天機器人,僅僅在Twitter學習了一天,就開始出現了反猶太人的信息。
人工智能正在成為“種族主義者”
人工智能在“價值觀”上的這種偏差,給社會帶來的影響將是巨大的。
去年五月,就有一則報道稱美國法院用于犯罪風險評估的計算機程序對黑人罪犯存有偏見。根據調查新聞組織ProPublica的說法,在COMPAS(懲教罪犯管理分析替代制裁)的項目中,關于判斷嫌疑人是否是累犯的問題,算法給出的黑人風險值(45%)幾乎是白人風險值的兩倍(24%),所以會更容易將黑人定為再犯嫌疑人。
與COMPAS類似的很多項目還在全美數百個法院中應用,而這無疑將影響法官和其他官員的判決。我們似乎看到,由于存在種族歧視而被詬病的美國司法制度,已經開始尋求技術的幫助來改變這樣的局面,但最終卻發(fā)現算法本身也存在種族偏見。
提供該軟件的公司Northpointe對報告的結論提出異議,但聲稱該項目由于敏感的商業(yè)機密拒絕透露內部算法。無論如何,ProPublica的指責還是揭示了一個困擾許多社會學家和計算機科學家多年的問題,即在計算工具變得越來越先進的同時,其計算原理也變得越來越不透明。計算工具所依賴的逮捕記錄、郵政編碼、社會關系和收入等數據,不僅帶有偏見,也有可能進一步加深人類的偏見。
當我們?yōu)橛嬎銠C算法提供的信息越多,機器學習和其它利用大數據的程序所展現出來的性能也就越好。據麥肯錫的全球管理顧問透露,在過去的一年中,針對人工智能這一領域,科技公司大約投入了200億到300億的資金,并主要用于研發(fā)。這些公司相信人工智能能夠篩選社會所產生的大量信息,并找到有助于人類社會變得更高效、更富有、更高幸福指數的模式。
許多科學家都希望利用機器學習實現很多事情,例如幫助失業(yè)人員找到工作、預測養(yǎng)老基金的走勢,以及整理稅務和海關工作。這些項目將會涉及到人類生活的方方面面,成為一種得到廣泛認可的智慧。如其中一位計算機科學家所說:“我們可能不知道人工智能的應用現在有多么廣泛,但是,我卻知道我們不能后退。”
然而,目前人們對人工智能的關注點往往是在預測未來趨勢上,關于如何阻止相關項目進一步加劇過去社會中存在的不平等現象卻關注得很少。
舊金山非盈利性人權數據分析組(HRDAG)的首席統(tǒng)計師Kristian Lum表示:“人們常常一不小心就會讓程序自動執(zhí)行不該有的偏見認知?!比ツ?,Lum和一位合作伙伴一起展示了一個稱為“PredPol”的項目,計算機基于對過去的犯罪報告的“學習”,可以幫助警察部門預測未來犯罪可能發(fā)生的熱點地區(qū)。而這也導致了警察部門對于黑色和棕色人種聚集的地區(qū)過度警惕。一位政策研究員Samuel Sinyangwe表示,這種做法“特別惡毒”,一方面,警察可以說自己沒有偏見,只是根據數據的分析結果執(zhí)行;另一方面,這也在暗示公眾計算機的算法是公正的。
計算機的偏見認知是人類賦予的
事實上,計算機本身是不會有偏見的,但是它會從人類所提供的數據中快速學會歧視。雖然機器學習使得計算機可以做很多例如語言翻譯、人臉識別或在Netflix隊列中推薦電影的工作。但是,隨著算法得以從原始代碼不斷“循環(huán)學習”,其中的原理也變得越來越復雜、越來越不透明。而對此,很多像Northpointe一樣的公司,礙于算法的商業(yè)敏感性往往也不愿意透露算法的內部運行原理。
此前,巴斯大學(University of Bath)的一位研究員Joanna Bryson開發(fā)了一個旨在“學習”詞匯之間的關聯性的程序,并發(fā)現這一程序在讀取了互聯網上數百萬頁的文本之后,開始將女性的名字和代詞與“接待員”和“護士”等工作聯系起來。令她更為震驚的是,這個結果與美國政府數據所顯示的結果一致,性別的確與職業(yè)存在著近90%的相關性。
Bryson表示:“人們希望人工智能是公正客觀的,而這本身就是錯誤的。如果基礎數據反映了人們的固有印象和判斷,或者如果你根據人類的文化來訓練人工智能,那么,你還是會發(fā)現偏見在人工智能領域中也是普遍存在的。”
那么,在這樣的情況下,誰會是“受害者”?根據Cathy O‘Neil所著的《數學殺傷性武器(Weapons of Math Destruction)》一書中所說,在當今社會里,最大的“受害者”通常是那些最容易受到自動化系統(tǒng)評估影響的人。比如說,真正富有的人不太可能通過網絡去找工作,也不會讓銀行行政人員以外的任何人評估他們的貸款申請。而在司法制度中,那些成千上萬沒有錢雇傭律師或其他法律顧問的被告,將成為最有可能接受計算機自動評估的人。
在Kristian Lum 2016年發(fā)表的一篇論文中,她具體揭示了由于人工智能系統(tǒng)中偏見的存在,哪些人群會成為“受害者”。以PredPol為例——該項目根據奧克蘭市警察局提供的近期犯罪和逮捕記錄的統(tǒng)計數據進行分析,總結出了未來可能發(fā)生犯罪的地域,從而為警方部署提供依據。盡管統(tǒng)計學家們以國家統(tǒng)計數據為基礎,統(tǒng)計出的整個國家的毒品使用量白人和黑人的概率差不多,但是,PredPol項目顯示的犯罪集中區(qū)域的結果中黑人社區(qū)的數量卻是白人社區(qū)數量的兩倍。
而如果美國警方根據PredPol所預測的結果在這些區(qū)域不斷開展行動并增加了逮捕數量,就會進入一個惡性循環(huán),在那些警察最常訪問的地區(qū),PredPol預測的犯罪行為也會越來越多。同時,這也將導致更多的警察被安排到這些地區(qū)。如此循環(huán)往復。
要解決偏見認知的問題還沒有“萬全之策”
雖然,我們大多數人都不了解PredPol等程序中的復雜代碼,但是,洛杉磯一個處理警方監(jiān)視的社區(qū)小組Stop LAPD Spying Coalition,其組織者Hamid Khan表示,人們認為預測性警務是一種自上而下的保持治安水平不變的方法,這將會導致那些本就不穩(wěn)定的地區(qū)陷入病態(tài)化。
在計算機科學界有這么一句話,錯誤的輸入,就會導致錯誤的輸出。這意味著程序并不是萬能的,如果你給計算機的信息是有缺陷的,計算機并不會修復這些缺陷,而只是根據已有的信息進行處理。用Khan的話說:“輸入了種族主義,就會導致種族歧視信息的輸出”。
但現在我們還不清楚的是,現行的法律怎么樣去防止歧視,以及如何規(guī)范算法決策來解決這個問題。2016年,曾為微軟研究員的康奈爾大學教授Solon Barocas表示,當涉及大數據和機器學習時,現行法律是幾乎不能解決歧視問題的。目前在美國,已經有許多傳統(tǒng)的民權主義者,包括美國公民自由聯盟(ACLU)在內,正在不斷維護民眾在這方面的權利,甚至試圖通過城市政策,要求警方披露其采用的包括人工智能在內的所有技術。
但是,由于政府機構采用私有企業(yè)的技術,其內部工作原理可能不透明,因而這一過程非常復雜并且曲折。
對此,英國也實施了一系列的保護措施。例如,如果一項決定被完全交給計算機,那么,政府的服務商和公司就必須進行披露。但是,牛津大學的阿蘭圖靈研究所的法律學者Sandra Wachter則表示,現行法律并沒有完全符合技術進步的方向,很多漏洞都可能造成算法的不公開使用。因此,他要求政府提供“解釋權”,所有對應的實施方案都必須以更高的透明度完全公開。
針對這一話題,很多科學文獻都反映了當今社會關于“公平”本質的辯論,而研究人員正在采用一切方法,從幾十年的歷史數據中剝離“不公平”的因素,并修改算法模型,從而保護受反歧視法保護的所有群體。然而,圖靈研究所的一名研究員仍然認為這是非常困難的,因為“改變變量可能會引入新的偏見,有時我們甚至不知道偏見如何影響數據,以及什么才是偏見?!?/p>
所以說,人工智能除了技術和應用本身,還有很多的社會和道德問題需要解決??梢哉f,計算機科學家面臨著一個陌生又熟悉的挑戰(zhàn):他們的工作要面向未來,但是,在面對有學習能力的機器的時候,卻發(fā)現自己卻還被困在非常古老而傳統(tǒng)的問題中。
評論