博客專欄

EEPW首頁(yè) > 博客 > 把黑人小伙識(shí)別為“靈長(zhǎng)類”,F(xiàn)acebook為闖禍算法道歉

把黑人小伙識(shí)別為“靈長(zhǎng)類”,F(xiàn)acebook為闖禍算法道歉

發(fā)布人:大數(shù)據(jù)文摘 時(shí)間:2021-09-20 來(lái)源:工程師 發(fā)布文章

英國(guó)《每日郵報(bào)》 6 月 27 日發(fā)布的一段視頻最近在Facebook忽然火了起來(lái),但其引發(fā)關(guān)注的原因并不是因?yàn)橐曨l本身,而是因?yàn)樗淮蛏系摹皹?biāo)簽":這是一段關(guān)于一位黑人的視頻,但所有觀看該視頻的用戶都會(huì)收到一條提示,詢問(wèn)他們是否想“繼續(xù)觀看有關(guān)靈長(zhǎng)類動(dòng)物的視頻”。微信圖片_20210920110834.jpg

前 Facebook 內(nèi)容設(shè)計(jì)經(jīng)理 Darci Groves 在推特發(fā)布了這一發(fā)現(xiàn),并且很快引發(fā)眾怒。

之后,F(xiàn)acebook很快下線了這一推薦,并且公開(kāi)道歉。

“這顯然是一個(gè)不可接受的錯(cuò)誤,我們?cè)谝庾R(shí)到發(fā)生這種情況后立即禁用了整個(gè)主題推薦功能,這樣我們可以調(diào)查原因并防止這種情況再次發(fā)生,”Facebook 發(fā)言人 Dani Lever 在給《今日美國(guó)》的一份聲明中說(shuō)。

“正如我們所說(shuō),雖然我們對(duì)人工智能進(jìn)行了改進(jìn),但我們知道它并不完美,我們還有很多的進(jìn)步空間,”她說(shuō)?!拔覀兿蛉魏慰赡芸吹竭@些冒犯性內(nèi)容的人道歉?!?/p>

爭(zhēng)論:人類不是靈長(zhǎng)類嗎?

不過(guò),事情發(fā)生后,也有人在相關(guān)社區(qū)表示,不必太過(guò)敏感,畢竟人類都是靈長(zhǎng)類動(dòng)物的一種,ai的判定也沒(méi)有問(wèn)題。

也有黑人程序員兄弟在社區(qū)表示,不要太過(guò)敏感,“我個(gè)人同意承認(rèn)黑人的膚色在視覺(jué)上與某些非人類靈長(zhǎng)類動(dòng)物的圖像更相似,并且可以理解為什么這個(gè)問(wèn)題不是程序員的偏見(jiàn),而是一個(gè)復(fù)雜的計(jì)算機(jī)視覺(jué)問(wèn)題,計(jì)算機(jī)很容易發(fā)現(xiàn)相似之處,但要訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)了解為什么圖像彼此相似但不相關(guān),就非常困難了?!?/p>

而反對(duì)者則認(rèn)為,AI只會(huì)反饋它學(xué)習(xí)的數(shù)據(jù),出現(xiàn)這樣的標(biāo)注結(jié)果,也反映出facebook整體標(biāo)注系統(tǒng)的大問(wèn)題,而據(jù)Facebook自己的說(shuō)法,其人工智能是使用用戶上傳的圖像進(jìn)行訓(xùn)練的。

畢竟,這也不是Facebook的ai系統(tǒng)第一次出這種”種族主義“的問(wèn)題。”

Facebook并非唯一,科技公司坎坷的“種族主義”難題

近些年,F(xiàn)acebook 在為算法“去種族偏見(jiàn)”的問(wèn)題上付出了不少代價(jià),過(guò)程頗為坎坷。早在2018年,該公司就曾被曝出丑聞,允許廣告商在如住房和就業(yè)等行業(yè)做廣告時(shí)排除某些少數(shù)群體。Facebook當(dāng)時(shí)也同樣使用“技術(shù)性”這一口徑來(lái)回避相關(guān)問(wèn)題,例如并不是按種族而是按所謂的“多元文化”對(duì)用戶進(jìn)行分類。

因此,F(xiàn)acebook在種族問(wèn)題上一直持有比較謹(jǐn)慎的態(tài)度,也為此付出了很多努力。去年7月,The Verge報(bào)道稱,F(xiàn)acebook 正在組建新的內(nèi)部團(tuán)隊(duì),致力于研究其主要社交網(wǎng)絡(luò)和 Instagram 的種族偏見(jiàn),特別是其使用人工智能訓(xùn)練的算法是否會(huì)對(duì)黑人、西班牙裔和其他少數(shù)族群產(chǎn)生不利影響。Facebook 發(fā)言人當(dāng)時(shí)告訴The Verge,該團(tuán)隊(duì)將“負(fù)責(zé)確保公平和公平的產(chǎn)品開(kāi)發(fā)存在于我們所做的一切中” ?!拔覀儗⒗^續(xù)與 Facebook 的負(fù)責(zé)任的人工智能團(tuán)隊(duì)密切合作,以確保我們正在關(guān)注我們各自平臺(tái)上的潛在偏見(jiàn)?!?/p>

不過(guò),從現(xiàn)在的結(jié)果來(lái)看,F(xiàn)acebook引以為豪的這一整改影響非常有限。

當(dāng)然,F(xiàn)acebook不是唯一一家因自動(dòng)化系統(tǒng)中的種族偏見(jiàn)而受到抨擊的科技公司。

2015 年,谷歌的應(yīng)用程序錯(cuò)誤地將黑人識(shí)別為“大猩猩”,并且為此道歉。不過(guò)兩年后,有媒體發(fā)現(xiàn)谷歌的解決方案非常簡(jiǎn)單粗暴,直接從搜索結(jié)果中刪除了相關(guān)標(biāo)簽,也就是說(shuō),禁止將任何圖片標(biāo)記為大猩猩、黑猩猩或猴子。

微信圖片_20210920110839.jpg

谷歌這種“寧可錯(cuò)殺一千,不肯放過(guò)一個(gè)”的做法或許殘暴,但也從某種程度上說(shuō)明了圖片分類這一看似簡(jiǎn)單的能力仍然存在比較大的問(wèn)題。對(duì)于實(shí)現(xiàn)真正的人工智能,我們?nèi)沃囟肋h(yuǎn)。

相關(guān)報(bào)道: 

https://www.theverge.com/2021/9/4/22657026/facebook-mislabeling-video-black-men-primates-algorithm

https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.html

https://www.usatoday.com/story/tech/2021/09/03/facebook-video-black-men-primates-apology/5721948001/

https://www.wired.com/story/when-it-comes-to-gorillas-google-photos-remains-blind/

*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。

路由器相關(guān)文章:路由器工作原理


路由器相關(guān)文章:路由器工作原理




關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉