情緒再也藏不???AI從走路姿勢就能分辨!
每個(gè)人的走路方式都各有不同,而且它還會(huì)泄露有關(guān)你的更多秘密,比如你每時(shí)每刻的情緒。舉例來說,當(dāng)你感到壓抑或沮喪時(shí),你更有可能耷拉著肩膀,而不是昂首闊步地走路。
本文引用地址:http://2s4d.com/article/201907/402624.htm美國查佩爾希爾大學(xué)和馬里蘭大學(xué)的研究人員利用這種身體語言,最近研究了一種機(jī)器學(xué)習(xí)方法,這種方法可以從某人的步態(tài)中識別出他當(dāng)前的情緒,包括情緒向性(消極或積極)和喚起水平(平靜或充滿活力)。研究人員稱,這種方法在初步實(shí)驗(yàn)中的準(zhǔn)確率達(dá)到80.07%。
研究人員寫道:“情緒在我們的生活中扮演著重要的角色,定義著我們的經(jīng)歷,塑造著我們看待世界和與他人互動(dòng)的方式。由于感知情感在日常生活中的重要性,自動(dòng)情感識別在許多領(lǐng)域都是一個(gè)關(guān)鍵問題,比如游戲和娛樂、安全和執(zhí)法、購物以及人機(jī)交互等?!?/p>
研究人員選擇了四種情緒——快樂、悲傷、憤怒和中性,以此作為測試步態(tài)分析算法的例證。然后,他們從多個(gè)步行視頻語料庫中提取步態(tài)來識別情感特征,并使用三維姿態(tài)估計(jì)技術(shù)提取姿態(tài)。
最后,他們利用長短時(shí)記憶(LSTM)模型——能夠?qū)W習(xí)長期依賴關(guān)系,從姿態(tài)序列中獲得特征,并將其與隨機(jī)森林分類器(該分類器輸出多個(gè)獨(dú)立決策樹的平均預(yù)測)相結(jié)合,將其所分析步態(tài)歸入上述四種情緒類別中。
這個(gè)AI系統(tǒng)根據(jù)人們走路的方式對他們的情緒進(jìn)行分類
這些特征包括肩膀姿勢、連續(xù)步數(shù)之間的距離以及手和脖子之間的抖動(dòng)頻率。頭部傾斜角度被用來區(qū)分快樂和悲傷的情緒,而更緊湊的姿勢和“身體擴(kuò)張”分別代表著消極和積極的情緒。
至于喚起水平,科學(xué)家們注意到它往往與增加的動(dòng)作相對應(yīng),該模型考慮了速度、加速度的大小,以及手、腳和頭部關(guān)節(jié)的“運(yùn)動(dòng)抖動(dòng)”。
AI系統(tǒng)處理了來自“情感漫步”(Emotion Walk,簡稱EWalk)的樣本。EWalk是包含1384個(gè)步態(tài)的新數(shù)據(jù)集,這些步態(tài)是從24名受試者在大學(xué)校園(包括室內(nèi)和室外)散步的視頻中提取的。大約有700名來自亞馬遜土耳其機(jī)械公司的參與者給情緒貼上標(biāo)簽,研究人員用這些標(biāo)簽來確定情緒的向性和興奮程度。
在測試中,研究小組報(bào)告說,他們的情感檢測方法準(zhǔn)確性比最先進(jìn)的算法提高了13.85%,比不考慮情感特征的“普通”LSTM提高了24.60%。這并不是說它是完美的,畢竟其精度度在很大程度上取決于三維人體姿態(tài)估計(jì)和步態(tài)提取的精度。但盡管有這些限制,研究小組相信他們的方法將為涉及額外活動(dòng)和其他情感識別算法的研究提供堅(jiān)實(shí)的基礎(chǔ)。
研究人員表示:“我們的方法也是第一個(gè)利用最先進(jìn)3D人體姿態(tài)估計(jì)技術(shù),為行走視頻中的情緒識別提供實(shí)時(shí)通道的方法。作為未來工作的一部分,我們希望收集更多的數(shù)據(jù)集,并改進(jìn)當(dāng)前系統(tǒng)中存在的限制?!?/p>
評論