博客專欄

EEPW首頁 > 博客 > 推特“頭像裁剪”算法更愛“白幼瘦”!瑞士小哥用StyleGAN2識(shí)破算法癖好,登頂懸賞賽

推特“頭像裁剪”算法更愛“白幼瘦”!瑞士小哥用StyleGAN2識(shí)破算法癖好,登頂懸賞賽

發(fā)布人:大數(shù)據(jù)文摘 時(shí)間:2021-08-20 來源:工程師 發(fā)布文章

如今,社交媒體當(dāng)?shù)馈?/p>

相信不少人在首次注冊社交媒體時(shí),平臺(tái)都會(huì)要你上傳一張照片當(dāng)做頭像。

有人會(huì)選擇喜歡的明星,也有人會(huì)用自己的真實(shí)照片。

但這都不是最關(guān)鍵的,可能你沒有發(fā)現(xiàn),在上傳頭像照片時(shí),平臺(tái)對(duì)某些照片存在不同程度的偏好。

比如,某些平臺(tái)內(nèi)置的算法會(huì)偏愛膚色較淺、紋理較光滑且沒有戴眼鏡的照片,或者是更年輕的面孔:

1.png

而這已經(jīng)在推特得到了證實(shí)。

根據(jù)國外多家媒體報(bào)道,推特的照片裁剪算法存在較大的漏洞,算法在預(yù)覽和聚焦不同照片中的“亮點(diǎn)”時(shí),對(duì)膚色、胖瘦、性別和年齡有不同的優(yōu)先級(jí)。

也就是說,算法會(huì)更偏好“膚色更淺、更苗條、更年輕”的面孔,而不是“膚色更深、臉型更寬、年紀(jì)更大”的面孔。

對(duì)此,有網(wǎng)友指出,如此看來,算法也稱得上是某種極端主義者了。

2.png

用StyleGAN2拆解推特算法的偏好

這個(gè)研究結(jié)果來自瑞士聯(lián)邦洛桑理工學(xué)院的研究生Bogdan Kulynych。

在推特贊助的“算法漏洞懸賞大賽”中,Kulynych發(fā)現(xiàn),推特的照片裁剪算法對(duì)照片中的特征存在不同程度的偏好。

Kulynych使用StyleGAN2生成了大量逼真的面孔,他根據(jù)膚色、身材、年齡和女性化等標(biāo)簽對(duì)這些面孔進(jìn)行了分類,然后將這些數(shù)據(jù)放入了推特的照片裁剪算法中。

Kulynych發(fā)現(xiàn),推特的算法對(duì)膚色有著最為明顯的偏好趨勢,算法更喜歡那些“苗條、年輕、具有典型女性面部特征”的面孔。

3.png

其次便是年齡,該算法對(duì)灰頭發(fā)和白頭發(fā)的用戶存在明顯的歧視行為。緊接著的是圖片中的文字,相較于阿拉伯?dāng)?shù)字,算法會(huì)更喜歡英語。

4.png

GitHub鏈接:

https://github.com/bogdan-kulynych/saliency_bias

Kulynych在總結(jié)中補(bǔ)充說:“當(dāng)應(yīng)用算法時(shí),這些內(nèi)部偏見本質(zhì)上會(huì)轉(zhuǎn)化為代表性不足的危害,從而剔除那些不符合算法對(duì)體重、年齡、膚色偏好的人。”

Kulynych在大賽中獲得了第一名,推特稱Kulynych的發(fā)現(xiàn)“展示了算法模型如何放大現(xiàn)實(shí)世界的偏見和社會(huì)對(duì)美的期望”。 

5.png

推特不喜歡iPhone?漏洞得到官方承認(rèn)

在更早的時(shí)候,相關(guān)漏洞就已經(jīng)被指出。

去年,一位推特用戶試圖發(fā)布他在Zoom的面部識(shí)別中注意到的一個(gè)問題,即在通話中沒有顯示出一位黑人同事的臉,當(dāng)他發(fā)帖到Twitter上時(shí),他注意到推特同樣更偏向于他的臉而不是黑人同事的臉。

6.png

這對(duì)卡通人物同樣適用。

7.png

甚至,還有網(wǎng)友發(fā)現(xiàn),與iPhone相比,推特的算法更傾向于顯示微軟已停產(chǎn)Windows手機(jī)。

8.png

當(dāng)推特首次上線照片裁剪功能時(shí),研究人員在博客文章中解釋了他們?nèi)绾螐拿娌孔R(shí)別開始裁剪圖像,但實(shí)際上,并非所有的圖像都包含人臉。

此外,人臉檢測器會(huì)經(jīng)常漏掉人臉,也會(huì)在沒有人臉的情況下錯(cuò)誤地檢測到人臉。如果沒有發(fā)現(xiàn)人臉,視角會(huì)自動(dòng)地被聚焦在圖像中心,這可能會(huì)導(dǎo)致尷尬的裁剪圖像。

9.gif

隨后,推特官方也進(jìn)行了調(diào)查,他們發(fā)現(xiàn):

在男性和女性之間,人口統(tǒng)計(jì)學(xué)上的平等偏向于女性的差異為8%;

在黑人和白人的比較中,白人和黑人的人口比例相差4%;

在黑人女性和白人女性的比較中,白人女性在人口平等方面的差距為7%;

在黑人和白人男性的比較中,白人男性在人口統(tǒng)計(jì)學(xué)上有2%的差異。

10.png

同時(shí),推特還通過隨機(jī)選擇100張男性和女性呈現(xiàn)的圖像來測試“男性凝視”,這些圖像在圖像中具有多個(gè)被算法識(shí)別為顯著的區(qū)域,并觀察模型如何選擇裁剪圖像。

他們發(fā)現(xiàn),每組每100張圖像,沒有裁剪到頭部位置的情況大約3張,在這種情況下,算法會(huì)裁剪圖像的其他特征,例如運(yùn)動(dòng)衫上的字母。

5月,推特下線了圖片裁剪功能,只允許用戶完整地發(fā)布照片,或自己決定如何裁剪照片。

“我們的結(jié)論之一是,并不是推特上的所有東西都適合使用算法,在這種情況下,如何裁剪圖片是一個(gè)最好由人做出的決定。”推特軟件工程總監(jiān)Rumman Chowdhury在一篇關(guān)于該團(tuán)隊(duì)發(fā)現(xiàn)的博文中寫道。

Chowdhury表示:“當(dāng)我們考慮模型中的偏見時(shí),不僅僅是關(guān)于學(xué)術(shù)或?qū)嶒?yàn),而是它與我們在社會(huì)中思考的方式有關(guān)?!?/p>

如何對(duì)待算法偏見?

近年來,隨著人工智能的逐漸發(fā)展,算法偏見也開始得到了重視。

對(duì)于此,英國謝菲爾德大學(xué)計(jì)算機(jī)專家Noel Sharkey表示,應(yīng)該在可能改變生活方式的所有領(lǐng)域中禁止使用算法。

Sharkey對(duì)一系列機(jī)器學(xué)習(xí)系統(tǒng)存在偏見的現(xiàn)象深表擔(dān)憂,Sharkey表示:“現(xiàn)在有很多偏見發(fā)生,從工作面試到社會(huì)福利,再到?jīng)Q定誰應(yīng)該保釋誰應(yīng)該入獄等等,很明顯我們必須停止使用決策算法。我一直對(duì)監(jiān)管非常重視,我認(rèn)為它會(huì)扼殺創(chuàng)新?!?/p>

“但后來我意識(shí)到,有些創(chuàng)新應(yīng)該被扼殺,或者至少要有所保留。因此應(yīng)該暫停所有影響人們生活的算法,這些算法并沒有在發(fā)揮實(shí)際用處,反而在加深人們的偏見?!?/p>

Sharkey曾與谷歌和微軟等公司就偏見問題進(jìn)行了交談,“他們知道這是一個(gè)問題,過去幾年他們也一直在努力尋找解決方案,但到目前為止還沒有找到”。

“在實(shí)驗(yàn)室里,系統(tǒng)可以對(duì)白人男性的識(shí)別率達(dá)到98%,但女性的識(shí)別率會(huì)偏低,深色皮膚的人效果會(huì)更下一層樓。在后面兩種情況下,我們都可以說,系統(tǒng)并不能準(zhǔn)確識(shí)別人臉?!?/p>

歸根結(jié)底,算法背后是人,算法偏見背后其實(shí)就是人的偏見,算法的選擇也就是在大數(shù)據(jù)處理之后人的選擇。在針對(duì)相關(guān)現(xiàn)象進(jìn)行批評(píng)時(shí),更應(yīng)需要關(guān)注現(xiàn)實(shí)中的偏見,保持內(nèi)省。

這對(duì)每個(gè)人來說,都極為重要。

相關(guān)報(bào)道:

https://www.dailymail.co.uk/sciencetech/article-9879871/Twitters-photo-cropping-algorithm-favours-young-beautiful-light-skinned-faces-study-confirms.html

https://blog.twitter.com/engineering/en_us/topics/insights/2021/sharing-learnings-about-our-image-cropping-algorithm

https://www.theguardian.com/technology/2019/dec/12/ai-end-uk-use-racially-biased-algorithms-noel-sharkey

*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉