新聞中心

EEPW首頁(yè) > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 人工智能發(fā)展面臨的法律挑戰(zhàn)

人工智能發(fā)展面臨的法律挑戰(zhàn)

作者: 時(shí)間:2017-04-19 來(lái)源:人工智能 收藏

  觀察一個(gè)概念是不是在公眾視野中“紅了”,有一個(gè)判斷標(biāo)準(zhǔn),就是看看在各大機(jī)場(chǎng)的書店里有多少本關(guān)于這個(gè)主題的暢銷書。以這個(gè)標(biāo)準(zhǔn)來(lái)看,現(xiàn)在無(wú)疑“紅的發(fā)紫”,也還會(huì)繼續(xù)紅下去。

本文引用地址:http://2s4d.com/article/201704/346769.htm

  然而,科技領(lǐng)域的每一個(gè)新概念,從產(chǎn)生到具體在各行業(yè)中落地,都需要面對(duì)很多挑戰(zhàn),既有技術(shù)和商業(yè)層面的,也有法律和公共政策層面的。

  在過(guò)去的一年之間,的發(fā)展已經(jīng)引起了很多國(guó)家、國(guó)際組織的重視,聯(lián)合國(guó)、美國(guó)、歐洲議會(huì)、英國(guó)、法國(guó)、電氣和電子工程師協(xié)會(huì)(IEEE)先后發(fā)布多份關(guān)于的報(bào)告,討論人工智能的影響和需要考慮的風(fēng)險(xiǎn)。這其中也包含了對(duì)于法律問(wèn)題的討論。

  筆者作為多家科技公司的顧問(wèn),也在業(yè)務(wù)實(shí)踐中遇到了很多和人工智能技術(shù)應(yīng)用相關(guān)的法律問(wèn)題,本文會(huì)結(jié)合實(shí)例討論人工智能發(fā)展在法律問(wèn)題上可能會(huì)遇到哪些挑戰(zhàn)。

  數(shù)據(jù)的收集、使用和安全

  盡管人工智能從法律上很難準(zhǔn)確定義,但從技術(shù)上來(lái)說(shuō),目前人工智能基本都會(huì)涉及機(jī)器學(xué)習(xí)技術(shù)(MachineLearning),這意味著需要收集、分析和使用大量數(shù)據(jù),其中很多信息由于具有身份的識(shí)別性(包括結(jié)合其他信息識(shí)別身份),屬于個(gè)人信息。按照個(gè)人信息保護(hù)方面的法律規(guī)定,這些行為應(yīng)當(dāng)取得用戶明確、充分且完備的授權(quán),并應(yīng)當(dāng)明確告知用戶收集信息的目的、方式手段、內(nèi)容、留存時(shí)限還有使用的范圍等。

  早在2011年,F(xiàn)acebook就曾因其人臉識(shí)別和標(biāo)記功能未按伊利諾伊州《生物信息隱私法案》(BIPA)要求告知用戶收集面部識(shí)別信息的期限和方式被訴,隨后又因采集面部特征前未能明確提醒用戶并征得用戶同意而遭到愛爾蘭和德國(guó)有關(guān)部門的調(diào)查。盡管Facebook辯稱默認(rèn)開啟該功能是因?yàn)橛脩敉ǔ2粫?huì)拒絕進(jìn)行人臉識(shí)別,并且用戶有權(quán)隨時(shí)取消這一功能,但德國(guó)漢堡市數(shù)據(jù)保護(hù)與信息安全局堅(jiān)持Facebook的面部識(shí)別技術(shù)違反了歐洲和德國(guó)的數(shù)據(jù)保護(hù)法,F(xiàn)acebook應(yīng)刪除相關(guān)數(shù)據(jù)。最終,F(xiàn)acebook被迫在歐洲地區(qū)關(guān)閉了人臉識(shí)別功能,并刪除了針對(duì)歐洲用戶建立的人臉數(shù)據(jù)庫(kù)。

  當(dāng)然也有對(duì)企業(yè)有利的案例。著名籃球游戲NBA2K提供了使用用戶面部識(shí)別信息建立角色模型的功能,部分用戶以游戲制造者未征得其同意提起集體訴訟,法官認(rèn)為被告收集信息最多是抽象的違反了BIPA,而沒有給原告造成具體而特定的損害,因此原告主體身份不適格,駁回了原告的訴請(qǐng)。

  除了需要按告知的方式和范圍使用用戶數(shù)據(jù),人工智能應(yīng)用的開發(fā)者還可能面臨需要配合政府部門提供數(shù)據(jù)的情況。2016年阿肯色州發(fā)生的一起謀殺案中,警方希望獲取Alexa語(yǔ)音助手收集的語(yǔ)音數(shù)據(jù),該請(qǐng)求遭到了亞馬遜公司的拒絕,理由是警方?jīng)]有出具有效的法律文件。但這種例子以后還會(huì)層出不窮。公權(quán)和私權(quán)的沖突,也許會(huì)因?yàn)槿斯ぶ悄芗夹g(shù)的引入,出現(xiàn)新的形式。

  人工智能開發(fā)者在收集、使用數(shù)據(jù)的過(guò)程中,還要遵守安全保障原則,采取適當(dāng)?shù)?、與個(gè)人信息遭受損害的可能性和嚴(yán)重性相適應(yīng)的管理措施和技術(shù)手段,保護(hù)個(gè)人信息安全,防止未經(jīng)授權(quán)的檢索、披露及丟失、泄露、損毀和篡改個(gè)人信息。

  數(shù)據(jù)歧視和算法歧視

  人工智能在應(yīng)用中,往往需要利用數(shù)據(jù)訓(xùn)練算法。如果輸入的數(shù)據(jù)代表性性不足或存在偏差,訓(xùn)練出的結(jié)果將可能將偏差放大并呈現(xiàn)出某種歧視特征。根據(jù)國(guó)外報(bào)道,卡內(nèi)基?梅隆大學(xué)的研究顯示,由谷歌(Google)創(chuàng)建的廣告定位算法可能存在對(duì)互聯(lián)網(wǎng)用戶的性別歧視。在搜索20萬(wàn)美元薪水的行政職位中,假冒男性用戶組收到1852個(gè)廣告,而假冒女性用戶組僅收到318個(gè)廣告。而在2016年3月23日,微軟公司的人工智能聊天機(jī)器人Tay上線不到24小時(shí),就在一些網(wǎng)友的惡意引導(dǎo)和訓(xùn)練下,發(fā)表了各種富有攻擊性和歧視性的言論。除此以外,因?yàn)閿?shù)據(jù)存在偏差,導(dǎo)致結(jié)果涉嫌歧視甚至攻擊性的例子,已經(jīng)大量出現(xiàn)。

  這意味著開發(fā)者在人工智能的訓(xùn)練和設(shè)計(jì)過(guò)程中需要秉承廣泛的包容性,充分考慮女性、兒童、殘疾人、少數(shù)族群等易被忽視群體的利益,并對(duì)道德和法律的極端情況設(shè)置特別的判斷規(guī)則。

  由于人工智能系統(tǒng)并非表面那么看起來(lái)“技術(shù)中立”,在毫不知情的情況下,特定人群就可能就成了系統(tǒng)“偏見”和“歧視”的受害者。作為開發(fā)者,需要審慎面對(duì)這樣的風(fēng)險(xiǎn)。除了在采集數(shù)據(jù)和設(shè)計(jì)算法的時(shí)候需要注意數(shù)據(jù)的全面性和準(zhǔn)確性以及算法的不斷調(diào)整更新外,在應(yīng)用機(jī)器的預(yù)測(cè)結(jié)果是也應(yīng)該更為謹(jǐn)慎,在重要領(lǐng)域不能將人工智能的運(yùn)算結(jié)果當(dāng)然作為最終且唯一的決策依據(jù),關(guān)鍵的人為審查依然是必要的。例如在關(guān)于人工智能醫(yī)療輔助診斷的規(guī)定中,就明確了人工智能輔助診斷技術(shù)不能作為臨床最終診斷,僅作為臨床輔助診斷和參考,最終診斷必須由有資質(zhì)的臨床醫(yī)師確定。

  如果人工智能的歧視行為給用戶造成了實(shí)際或精神損害,相關(guān)的法律責(zé)任應(yīng)當(dāng)首先由人工智能服務(wù)的最終使用者承擔(dān),人工智能開發(fā)者有過(guò)錯(cuò)的,最終使用者承擔(dān)責(zé)任后可以向開發(fā)者追償。在判斷開發(fā)者過(guò)錯(cuò)程度時(shí),可能需要區(qū)分不同算法:如果技術(shù)開發(fā)者主動(dòng)設(shè)立了算法中的規(guī)則,那么對(duì)最終出現(xiàn)的歧視風(fēng)險(xiǎn)預(yù)見和控制程度也更高,如果最終因系統(tǒng)的“歧視”或者“偏見”損害了第三方的合法權(quán)益,難辭其咎。但如果采取的深度學(xué)習(xí)等算法,由系統(tǒng)自身探索并形成規(guī)則,所以開發(fā)者對(duì)歧視風(fēng)險(xiǎn)的控制程度是比較低的,主觀惡意和過(guò)錯(cuò)都較小,可能具有一定的免責(zé)空間。

  事故責(zé)任和產(chǎn)品責(zé)任

  和其他技術(shù)一樣,人工智能產(chǎn)品也有事故和產(chǎn)品責(zé)任的問(wèn)題,但要分清是人為操作不當(dāng)還是人工智能的缺陷并沒有那么容易,舉證上尤其困難。汽車的自動(dòng)駕駛功能在國(guó)內(nèi)外都曾因發(fā)生交通事故而被質(zhì)疑其安全性。然而,并非只要安裝了人工智能,用戶使用產(chǎn)品受到的損害就都屬于人工智能的責(zé)任。筆者收集和接觸了不少和人工智能產(chǎn)品有關(guān)的糾紛,但其中有相當(dāng)?shù)谋壤?,都不能證明開啟了人工智能的相關(guān)功能。

  在確定事故屬于人工智能責(zé)任前需要明確排查以下問(wèn)題:是否有人為操作等其他原因造成損害后果的發(fā)生?人工智能的具體功能是什么?損害發(fā)生時(shí)相關(guān)功能是否已經(jīng)啟用?相關(guān)功能是否發(fā)揮了預(yù)期作用?相關(guān)功能與損害后果之間是否存在因果關(guān)系?因果關(guān)系的相關(guān)程度如何?產(chǎn)品功能描述和介紹中是否存在可能造成用戶降低注意水平的歧義或誤解?

  根據(jù)《侵權(quán)責(zé)任法》的規(guī)定,因終端產(chǎn)品存在缺陷造成用戶損害的,終端產(chǎn)品生產(chǎn)者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。如果終端產(chǎn)品使用的人工智能存在缺陷,而終端產(chǎn)品使用的人工智能芯片和服務(wù)(人工智能產(chǎn)品)是由他人提供的,則終端產(chǎn)品生產(chǎn)者可以以銷售者的身份,要求人工智能產(chǎn)品和服務(wù)的開發(fā)者作為產(chǎn)品生產(chǎn)者承擔(dān)侵權(quán)責(zé)任。同時(shí),雙方也可以自行約定侵權(quán)責(zé)任的劃分問(wèn)題。

  在認(rèn)定產(chǎn)品缺陷責(zé)任時(shí)一個(gè)比較棘手的問(wèn)題是,各生產(chǎn)者之間的責(zé)任認(rèn)定問(wèn)題。因使用人工智能的終端產(chǎn)品可能涉及多類技術(shù)和部件,當(dāng)該產(chǎn)品最終發(fā)生意外時(shí),往往難以精準(zhǔn)定位問(wèn)題出現(xiàn)的具體環(huán)節(jié)和部位。因此,建議人工智能開發(fā)者通過(guò)黑匣子等技術(shù)手段加強(qiáng)對(duì)操作數(shù)據(jù)的記錄和保存,以便產(chǎn)生正義時(shí)履行舉證義務(wù)。


上一頁(yè) 1 2 下一頁(yè)

關(guān)鍵詞: 人工智能

評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉