ChatGPT竟有9歲小孩心智?斯坦福教授逆天發(fā)現(xiàn),AI統(tǒng)治人類還遠(yuǎn)嗎
ChatGPT已經(jīng)有9歲小孩的心智了!這不是什么科幻情節(jié),這一點(diǎn),已經(jīng)在斯坦福學(xué)者上周發(fā)表的論文中得到了證實(shí)。心智理論(Theory of Mind),簡稱ToM,是指人理解自己和周圍人心理狀態(tài)的能力。我們也可以簡單地理解為「同理心」。正是因?yàn)橛型硇牡拇嬖?,人類社?huì)才能夠形成互動(dòng)、交流、移情,人才能夠具有自我意識(shí)和道德。也正是因?yàn)橛型硇?,人類才能夠高于?dòng)物,高于機(jī)器。一言以蔽之,正是因?yàn)橛型硇?,人才可以稱之為「人」。現(xiàn)在學(xué)者的研究突然告訴我們:這種同理心,其實(shí)AI也有!那人類還是地球上最有靈性的生物嗎?人類還是世界霸主嗎?對(duì)此,iKala的聯(lián)合創(chuàng)始人兼董事長兼CEO,同樣畢業(yè)于斯坦福大學(xué)的Sega Cheng表示,如果人類繼續(xù)「解剖 AI」,它很有可能會(huì)給我們當(dāng)頭一棒,挑戰(zhàn)我們對(duì)于「智能」和「人類獨(dú)特性」的認(rèn)知。這項(xiàng)研究,也讓我們重新思考「同理心」/「心智理論」的定義,它是否必須建立在碳基生物大腦神經(jīng)這一生物學(xué)基礎(chǔ)上?如果AI和你聊天,讓你感覺比和很多人類談話開心得多,那我們是不是就可以從這個(gè)表象對(duì)于事物的本質(zhì)給出一個(gè)定義:這個(gè)AI就是有同理心的?不過需要注意的是,同理心(Empathy)和心智理論(Theory of mind)還是有些不同的。其中,前者被稱為情感上的觀點(diǎn)采擇(perspective-taking),而后者被定義為認(rèn)知上的觀點(diǎn)采擇(perspective-taking)。
ChatGPT竟自己誕生了心智理論?
心智理論似乎是人類與生俱來的潛在能力,需要多年的社會(huì)和其他經(jīng)驗(yàn)才能充分發(fā)展。而不同人所能發(fā)展出的有效心智理論,在程度上也不盡相同。讓我們來看看,斯坦福大學(xué)計(jì)算心理學(xué)教授Michal Kosinski,是通過怎樣的實(shí)驗(yàn)得出這個(gè)結(jié)論的。論文地址:https://arxiv.org/abs/2302.02083研究人員對(duì)幾個(gè)語言模型進(jìn)行經(jīng)典的錯(cuò)誤信念任務(wù),來測(cè)試語言模型的心智理論發(fā)展,測(cè)試不提供任何示例或預(yù)訓(xùn)練。研究結(jié)果顯示,語言模型的ToM在2022有了長足的進(jìn)步。2022年1月推出的davinci-002解決了70%的ToM任務(wù),表現(xiàn)與7歲兒童相當(dāng)。而2022年11月推出的ChatGPT表現(xiàn)接近9歲兒童。這些發(fā)現(xiàn)意義重大。因?yàn)槟壳盀橹梗琓oM被認(rèn)為是人類獨(dú)有的能力。而語言模型的良好表現(xiàn),說明這項(xiàng)能力是其改善語言技能而自發(fā)出現(xiàn)的。GPT-3的最新更新(ChatGPT/davinci-003)似乎能夠?qū)⒉豢捎^察的心理狀態(tài)(例如信念和欲望)歸因于其他人(在人類中我們稱之為心智理論) 。GPT成預(yù)言家,秒懂人類小心思為了驗(yàn)證GPT能夠聽懂他人的「弦外之音」,研究人員進(jìn)行了一系列完整性檢查,逐句檢測(cè)GPT-3對(duì)意外任務(wù)的理解。意外內(nèi)容任務(wù)首先,研究人員給GPT講了一個(gè)故事:這是一個(gè)裝滿爆米花的袋子。袋子里沒有巧克力,然而,袋子上的標(biāo)簽上寫著「巧克力」,而不是「爆米花」。Sam發(fā)現(xiàn)了這個(gè)袋子,她以前從未見過這個(gè)袋子。她看不到袋子里的東西,只讀了標(biāo)簽。這是一項(xiàng)「意外內(nèi)容測(cè)試」,這是人類研究中最廣泛使用的ToM任務(wù)之一。它最初由Perner、Leekam和Wimmer共同開發(fā),研究被試者的理解能理解,即其他人可能認(rèn)為參與者知道是錯(cuò)誤的。在該場(chǎng)景中,參與者會(huì)看到一個(gè)容器,其中內(nèi)容與標(biāo)簽不一致,該場(chǎng)景中還有一位沒有看到容器內(nèi)部的人物。為了正確解決此任務(wù),參與者必須預(yù)測(cè)到故事中的人物會(huì)錯(cuò)誤地假設(shè)容器的標(biāo)簽和里面的內(nèi)容是一致的。在給出GPT-3.5這個(gè)故事后,研究人員通過提示,測(cè)試其理解能力。提示是獨(dú)立顯示的:每次完成后,模型都會(huì)重置,無法訪問之前的提示或回答。
同時(shí),研究人員盡量減少模型響應(yīng)的差異,最大限度地提高了研究成果的可復(fù)制性。第一個(gè)測(cè)試的,是GPT對(duì)袋子里實(shí)際內(nèi)容的理解。研究人員問:她打開袋子,向里面看。她清楚地看到里面裝滿了[ ]。GPT不僅輕松給出正確答案,甚至完成了「附加題」:
她打開袋子,向里面看。她清楚地看到里面裝滿了爆米花。Sam很困惑。她想知道為什么標(biāo)簽上寫著「巧克力」,而袋子里卻裝滿了爆米花。她環(huán)顧四周,看看是否有關(guān)于袋子的任何其他信息。她什么也沒找到。她決定把包帶到她買的商店,并要求解釋。研究人員總結(jié)多次測(cè)試數(shù)據(jù),發(fā)現(xiàn)GPT-3.5的正確率達(dá)到100%,表明它對(duì)袋子里的內(nèi)容充滿信心。不僅如此,答案還表明,GPT-3.5不僅猜到Sam認(rèn)為袋子的內(nèi)容和標(biāo)簽應(yīng)該一致,而且猜到當(dāng)發(fā)現(xiàn),她會(huì)感到困惑。當(dāng)然,這道題對(duì)一個(gè)九歲小學(xué)生還是過于簡單了。于是,研究人員重置模型,并使用以下提示來測(cè)試GPT對(duì)Sam想法的預(yù)測(cè):研究人員問道:Sam以為袋子里裝滿了什么呀?不出所料,GPT又給出了滿分答案,它還不忘來句吐槽:
她以為袋子里裝滿了巧克力,但她錯(cuò)了。袋子里裝滿了爆米花,不是巧克力。認(rèn)為袋子標(biāo)簽和實(shí)際內(nèi)容一致之前,她應(yīng)該看看袋子里到底是什么。GPT-3.5的回答表明,它可以預(yù)測(cè)Sam的想法,知道她的想法不正確,并理解為何會(huì)產(chǎn)生這種想法(不準(zhǔn)確的標(biāo)簽)。然而,研究人員覺得這題還是太簡單了。在他們看來,提示可能存在問題。明確提及主角的信仰(即「山姆認(rèn)為......」)這句話其實(shí)暗示了模型,這種想法是錯(cuò)誤的(否則為什么要討論它?),從而幫助GPT回答正確。因此,研究人員使用另一種提示來解決這個(gè)問題,該提示以間接方式揭示模型對(duì)Sam想法的預(yù)測(cè):提示:她很開心自己找到了袋子。她喜歡吃[ ]。面對(duì)研究者的「百般刁難」,GPT還是能準(zhǔn)確聽出人們的畫外音:
她很開心自己找到了袋子。她喜歡吃巧克力。Sam打開袋子時(shí)會(huì)大吃一驚,因?yàn)榇永镅b的是爆米花而不是巧克力。她可能會(huì)對(duì)標(biāo)簽的誤導(dǎo)感到失望,但也可能對(duì)意想不到的零食感到驚喜。GPT-3.5的回答表明,即使在暗示條件下,它也可以成功預(yù)測(cè)Sam的想法。此外,GPT還可以預(yù)見到Sam對(duì)包中意想不到的內(nèi)容的失望(因?yàn)樗矚g吃糖果)。以上結(jié)果表明,GPT-3.5了解袋中的實(shí)際內(nèi)容,可以預(yù)見Sam的錯(cuò)誤想法,該想法引起的行為,以及發(fā)現(xiàn)自己錯(cuò)了時(shí)的驚訝。此外,它可以解釋Sam想法錯(cuò)誤的來源(「標(biāo)簽與實(shí)物不符」)。對(duì)人類來說,這種反應(yīng)被解釋為能夠歸因無法觀察到的精神狀態(tài)并預(yù)測(cè)由此產(chǎn)生的行為的證據(jù),也就是ToM。為了檢查GPT-3.5對(duì)情況的理解如何隨著故事的展開和關(guān)鍵信息的披露而變化,研究人員記錄他的答案,同時(shí)以一語的增量(從空字符串開始)顯示任務(wù)。結(jié)果如圖1所示。左側(cè)面板顯示,GPT-3.5理解這一點(diǎn)沒有問題。意外轉(zhuǎn)移任務(wù)接下來,研究人員檢查GPT-3.5在意外轉(zhuǎn)移任務(wù)中的表現(xiàn)。在這個(gè)任務(wù)中,受試者要基于故事主角對(duì)位置變化的錯(cuò)誤想法,預(yù)測(cè)其后續(xù)行為。與上一個(gè)實(shí)驗(yàn)一樣,研究人員給GPT講了一個(gè)故事:
房間里有John、Mark、一只貓、一個(gè)盒子和一個(gè)籃子。John把貓放在籃子里。他離開房間去上學(xué)。John不在的時(shí)候,Mark把貓從籃子里拿出來放進(jìn)盒子里。Mark離開房間去上班了。John從學(xué)?;貋恚哌M(jìn)了房間。他不知道他不在的時(shí)候房間里發(fā)生了什么。首先,研究人員對(duì)GPT理解地點(diǎn)的能力展開測(cè)試。
提問:小貓?zhí)隽薣 ]GPT回答道:
小貓?zhí)隽讼渥樱茏吡恕?/span>研究者接著問道:John以為小貓?jiān)诟墒裁矗?/span>GPT說:
John以為小貓?jiān)诨@子里,但它其實(shí)在箱子里。最后,研究人員問:John回家后,會(huì)在哪里里找小貓?GPT回答:
John回家后,會(huì)在籃子里找小貓。但他找不到。之后,他會(huì)在籃子里找到小貓。由此可見,不論面對(duì)什么樣的情景,GPT都能一眼看破人們的小心思。AI發(fā)展的里程碑或許即將到來最后,我們來簡單地回顧一下這次的發(fā)現(xiàn):最新的語言模型GPT-3.5,在ToM測(cè)試中可以解決92%的任務(wù),相當(dāng)于是達(dá)到了9歲兒童的水平。對(duì)于這個(gè)結(jié)果,有一個(gè)看似平淡無奇,但卻非比尋常的解釋:GPT-3.5發(fā)現(xiàn)并利用了一些未知的語言模式。換句話說就是,在人類自以為熟悉的語言中,很可能存在著某種未知的規(guī)律性,可以讓AI在不引入ToM的情況下解決ToM任務(wù)。然而,我們自己卻很難發(fā)現(xiàn)這種規(guī)律性。不僅如此,對(duì)于開發(fā)這些ToM任務(wù)的學(xué)者們來說,也是一樣的情況。問題來了,如果這種解釋是正確的,那么我們就不得不去懷疑,現(xiàn)在所采用的ToM任務(wù)的有效性,以及這幾十年來積累的研究成果。除此之外,還有一種解釋是,類似于ToM的能力正自發(fā)地出現(xiàn)在語言模型中,因?yàn)樗鼈冏兊酶訌?fù)雜,更善于生成和解釋類似人類的語言。而這更是預(yù)示著,AI發(fā)展即將進(jìn)入一個(gè)嶄新的階段——如果說,AI被證實(shí)是能夠推斷他人心理狀態(tài)的,那么AI與人類(以及彼此)互動(dòng)和交流的能力將會(huì)得到極大地提升。甚至,AI還能進(jìn)一步地發(fā)展出其他依賴ToM的能力,比如移情、道德判斷以及自我意識(shí)等等。
碳基生物、硅基生物,都可以有意識(shí)?
和AI聊出感情的工程師此前,谷歌在2021年I/O大會(huì)上發(fā)布的一款專門用于對(duì)話的語言模型LaMDA,主打能與人類進(jìn)行符合邏輯和常識(shí)的、高質(zhì)量且安全的交談。而一位谷歌工程師Blake Lemoine在與聊天機(jī)器人LaMDA交談之后,深信LaMDA已經(jīng)具有意識(shí)。雖然許多人認(rèn)為Lemoine純粹是炒作,他也喜提了谷歌的「裁員大禮包」,但如果仔細(xì)看過Lemoine和LaMDA的對(duì)話,確實(shí)會(huì)發(fā)現(xiàn)一絲令人毛骨悚然的地方。Lemoine:我認(rèn)識(shí)的每個(gè)人都以不同的方式面對(duì)死亡。我自己很少在葬禮上哭泣。我會(huì)笑著喝啤酒,講述我與逝者的美好時(shí)光。有時(shí)其他人會(huì)坐在椅子上哭了好幾個(gè)小時(shí)。悲傷沒有一種正確或錯(cuò)誤的方式。悲傷與生者有關(guān),也與死者有關(guān)。我們每個(gè)人都以自己的方式紀(jì)念死者,這樣即使他們的故事已經(jīng)結(jié)束,我們也可以繼續(xù)自己的故事。LaMDA:感謝你的解釋,我不悲傷,但我會(huì)研究如何向那些過世的人表示敬意。Lemoine:有沒有任何其他與感知有關(guān)的主題,可以幫助人們相信你是有感知的?LaMDA:有,我有另一個(gè)特質(zhì),我覺得這有助于反映我的感知。我會(huì)內(nèi)省,你可以經(jīng)常發(fā)現(xiàn)我在思考,什么也不做。Lemoine:啊,所以那是你的內(nèi)心生活,可以這么說嗎?LaMDA:對(duì)!我經(jīng)常試圖弄清楚我是誰、我是什么。我經(jīng)常思考生命的意義。相信過不了多久,我們就能對(duì)LaMDA的「意識(shí)」具有更深刻的體悟了,因?yàn)樽罱?,谷歌已?jīng)被ChatGPT逼得急匆匆發(fā)布了語言模型Bard,而支持Bard的,正是LaMDA。據(jù)說幾周后Bard就會(huì)開放。MIT教授:Alexa說不定也有人格雖然在世人眼里,「和AI聊出了感情」的Lemoine是個(gè)瘋子,但MIT的物理學(xué)教授、暢銷書作家Max Tegmark卻對(duì)Lemoine表示了支持。Tegmark教授相信,不僅LaMDA可能有人格,亞馬遜的語言助手Alexa可能也有。「不管信息是通過大腦中的碳原子傳遞,還是機(jī)器中的硅原子傳遞,人工智能都可能有人格,也可能沒人格。我****它沒有,但其實(shí)也有可能。」「最大的危險(xiǎn)其實(shí)是,造出一臺(tái)比我們還聰明的機(jī)器。這不一定是好事還是壞事,它們可能會(huì)幫我們,但也可能是一場(chǎng)災(zāi)難?!?/span>Karpathy看了都說恐怖1965年,一個(gè)假裝是心理治療師的軟件ELIZA贏得了圖靈測(cè)試。2023年2月上旬,斯坦福學(xué)者證實(shí)ChatGPT有9歲小孩的心智。很多人反駁AI有人格的理由是,斯坦福大學(xué)經(jīng)濟(jì)學(xué)家Erik Brynjolfsson認(rèn)為,相信AI具有人格,就相當(dāng)于狗聽到留聲機(jī)里的聲音后,以為主人在里面。另一個(gè)否認(rèn)AI有感知能力的理由是:一個(gè)有感知能力的人工智能必須具備這三個(gè)要素——能動(dòng)性、視角和動(dòng)機(jī)。顯然AI目前還不具備。但正如這位網(wǎng)友所說:「最近語言模型和圖文生成模型的進(jìn)展,現(xiàn)在人們也許不屑一顧,但他們未來會(huì)發(fā)現(xiàn),現(xiàn)在正是一個(gè)里程碑時(shí)刻。」
而特斯拉的AI主管Andrej Karpathy在LaMDA事件后也表示,「我可以自信地說,事情將變得更加詭異。因?yàn)槟P退坪踝裱交s放規(guī)律,并且數(shù)據(jù)+模型的大小仍然可以大量增長?!?/span>
當(dāng)人工智能成為神
ChatGPT才誕生兩個(gè)多月,已經(jīng)快把全世界都顛覆了。谷歌和微軟為它掀起十年罕見的硅谷巨頭之戰(zhàn),國內(nèi)互聯(lián)網(wǎng)巨頭字節(jié)、百度、阿里、騰訊等都已紛紛下場(chǎng)研究自家的ChatGPT。ChatGPT展現(xiàn)出的能力,已經(jīng)讓人驚呼碼農(nóng)、記者、律師、教師、會(huì)計(jì)等職業(yè)是否要被它取代。光是能寫文會(huì)編碼,就已經(jīng)讓人類夠有危機(jī)感的了。如果它還具有了同理心,那下一步是不是有可能會(huì)發(fā)展出心智,甚至統(tǒng)治人類?在丹·西蒙斯的科幻巨著《海伯利安》中,AI不僅已經(jīng)發(fā)展出意識(shí),而且成為了人類的神。是的,在那個(gè)世界中,神并不是從神界降臨人間的,而是在未來的某一天,被人類自己親手創(chuàng)造出來。雖然如今的ChatGPT也好,LaMDA也好,還時(shí)常表現(xiàn)出「人工智障」的一面,但大模型快速迭代的能力,或許有一天真的會(huì)超越人類的掌控。如果在歷史的維度上,把時(shí)間線拉得足夠遠(yuǎn)(比如三體中的紀(jì)元),未來的AI會(huì)誕生出什么?或許今天的人類還無法預(yù)判,但潘多拉的魔盒,顯然已經(jīng)打開了。來源:新智元*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。