博客專欄

EEPW首頁 > 博客 > 普林斯頓大學(xué)開發(fā)“AI顏狗”,第一眼看到照片,就能預(yù)測人們對你的第一印象

普林斯頓大學(xué)開發(fā)“AI顏狗”,第一眼看到照片,就能預(yù)測人們對你的第一印象

發(fā)布人:數(shù)據(jù)派THU 時間:2022-05-15 來源:工程師 發(fā)布文章

來源:大數(shù)據(jù)文摘

圖片


世人皆是顏狗。
心理學(xué)家弗雷特說,以貌取人是人類的一種本能,這有可能是長期自然進(jìn)化選擇的結(jié)果。
因?yàn)槿说拇竽X總是會選擇對自己來說,是最不需要動腦思考的思維方式。
所以,人們就更傾向于通過外貌來判斷一個人(能力、學(xué)識、身份、地位、個性特征)。而從遺傳學(xué)和進(jìn)化心理學(xué)角度來看,“以貌取人”很可能是人的一種進(jìn)化缺陷。
這種缺陷表明,“顏值即正義”真的是有原因的。
這些第一印象,盡管常常不準(zhǔn)確,卻可能非常強(qiáng)大,塑造我們的關(guān)系,我們生活的方法面面,從找工作面試到法庭審判。
不過,這種通過顏值判斷一個人的受歡迎程度的能力,AI也學(xué)會了。
史蒂文斯理工學(xué)院的研究人員,與普林斯頓大學(xué)和芝加哥大學(xué)合作,現(xiàn)在已經(jīng)教會了一個人工智能算法來模擬人們的第一印象,并準(zhǔn)確地預(yù)測人們將如何看待別人的臉部照片。這項(xiàng)研究成果發(fā)表在4月21日出版的《美國國家科學(xué)院院刊》上。      圖片       

論文鏈接:https://www.pnas.org/doi/full/10.1073/pnas.2115228119
AI模型反映人類刻板印象:戴眼鏡的更聰明
史蒂文斯商學(xué)院(School of Business at Stevens)的認(rèn)知科學(xué)家和人工智能專家Jordan w. Suchow說,“目前有大量研究集中在模擬人臉的物理外觀上。”
“我們將人類的判斷和機(jī)器學(xué)習(xí)結(jié)合起來,研究人們之間那種充滿偏見的第一印象?!?/span>
Suchow和他的團(tuán)隊(duì),包括普林斯頓大學(xué)的Joshua Peterson和Thomas Griffiths,以及芝加哥大學(xué)布斯商學(xué)院的Stefan Uddenberg和Alex Todorov。
他們收集了數(shù)千人給出的他們對1000多張電腦生成的人臉照片的第一印象,并根據(jù)照片主體的智商、選舉能力、宗教信仰、是否值得信賴或外向程度等標(biāo)準(zhǔn)進(jìn)行排名。
圖片

然后,這些反應(yīng)被用來訓(xùn)練一個神經(jīng)網(wǎng)絡(luò),讓它僅僅根據(jù)人們的面部照片就對人們做出類似的快速判斷。
通過這個AI模型,就可以做到,“給你一張臉的照片,我們可以利用這個算法來預(yù)測人們對你的第一印象,以及當(dāng)他們看到你的臉時,他們會把哪些刻板印象投射到你身上,”Suchow解釋說。
該算法的許多發(fā)現(xiàn)都與常見的直覺或文化假設(shè)相一致:例如,微笑的人往往被認(rèn)為更值得信賴,而戴眼鏡的人往往被認(rèn)為更聰明。
有些特征是難以理解的
微笑的人更值得信賴,戴眼鏡的更聰明,這種判斷是很容易理解的,不過,在其他情況下,要準(zhǔn)確理解算法為什么將某種特征賦予某個人就有點(diǎn)困難了,也就是說,盡管是根據(jù)人類的判斷訓(xùn)練出來的模型,但是其中的機(jī)制大部分還是“黑箱”。
“這個算法并沒有提供有針對性的反饋,也沒有解釋為什么給出的圖片會引發(fā)特定的判斷,”Suchow說。“但即便如此,它也能幫助我們理解別人如何看待我們——我們可以根據(jù)哪張照片讓你看起來最值得信任來對一系列照片進(jìn)行排名,例如,讓你選擇如何展現(xiàn)自己?!?/span>
雖然最初開發(fā)這個算法是為了幫助心理學(xué)研究人員生成用于感知和社會認(rèn)知實(shí)驗(yàn)的人臉圖像,但是這個新算法可以在現(xiàn)實(shí)世界中得到應(yīng)用。
現(xiàn)代人都在小心翼翼地策劃他們的公眾形象,例如,只分享他們認(rèn)為讓他們看起來最聰明、最自信或最有吸引力的照片,很容易看出如何使用算法來支持這個過程,Suchow說。
因?yàn)橐呀?jīng)有一種社會規(guī)范圍繞著以積極的方式展現(xiàn)你自己,這回避了圍繞著這項(xiàng)技術(shù)的一些道德問題,他補(bǔ)充說。
更讓人苦惱的是,這個算法還可以用來處理照片,讓拍攝對象以一種特殊的方式出現(xiàn)——也許讓政治候選人看起來更值得信任,或者讓他們的對手看起來不聰明或多疑。
雖然人工智能工具已經(jīng)被用于制作“Deepfake”視頻,展示從未發(fā)生過的事件,但新算法可以巧妙地改變真實(shí)的圖像,以便操縱觀眾對其中人物的看法。
“有了這項(xiàng)技術(shù),我們可以拍一張照片,然后創(chuàng)建一個修改版本,以便給人留下某種印象,”Suchow說。“出于顯而易見的原因,我們需要對這項(xiàng)技術(shù)的使用方式保持謹(jǐn)慎。”
為了保護(hù)他們的技術(shù),研究團(tuán)隊(duì)獲得了一項(xiàng)專利,現(xiàn)在正在創(chuàng)建一個初創(chuàng)公司,為預(yù)先批準(zhǔn)的道德目的授權(quán)該算法?!拔覀冋诓扇∫磺锌赡艿拇胧?,以確保這不會被用來造成傷害,”Suchow說。
雖然目前的算法只關(guān)注一大群觀眾對一張給定面孔的平均反應(yīng),但Suchow接下來希望開發(fā)出一種算法,能夠預(yù)測一個人對另一個人的面孔的反應(yīng)。這可以讓我們更深入地了解快速判斷是如何影響我們的社會互動的,并可能幫助人們在做出重要決定時認(rèn)識到并超越他們的第一印象。
“重要的是要記住,我們正在模仿的判斷并不能揭示一個人的真實(shí)個性或能力,”Suchow 解釋說?!拔覀冊谶@里所做的是研究人們的刻板印象,這是我們都應(yīng)該努力去更好地理解的東西?!?/span>
相關(guān)報道:https://www.pnas.org/doi/full/10.1073/pnas.2115228119https://www.sciencedaily.com/releases/2022/04/220421181212.htm


*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點(diǎn),如有侵權(quán)請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉