機器學習的出現(xiàn),是否意味著“古典科學”的過時?
作者:Laura Spinney
譯者:劉媛媛
原文:Are we witnessing the dawn of post-theory science?
讓我們回憶一下,Isaac Newton 被一個蘋果砸中頭部,然后是怎么提出牛頓第二定律——萬有引力的?
大概過程是這樣的:大量的實驗和數據分析之后,他意識到,力、質量和加速度之間存在根本的關系。然后他制定了一種理論來描述這種關系,表示為一個方程“F=ma”,并用它來預測蘋果以外的物體的行為。事實證明,他的預測是正確的(這對于不要求精確度的人們來說是足夠)。
現(xiàn)在,我們再來對比一下當今科學發(fā)展的新潮流:Facebook 的機器學習工具比任何心理學家都更能預測你的偏好;DeepMind 開發(fā)的 AlphaFold,可以根據蛋白質所含的氨基酸對蛋白質結構做出了迄今為止最準確的預測。
它們的誕生對于科學界的研究范式來說究竟意味著什么?換句話說:獲取知識的最佳方式是什么?科學又從何而來?
人類的不安
Facebook 和 AlphaFold 沒有提供任何理論解釋。這些算法只是完成工作并且效果還不錯。我們每天都在見證 Facebook 預測的社會影響。AlphaFold 的影響尚未顯現(xiàn),但許多人相信它將改變醫(yī)學。
一時間,它們的理論基礎似乎隱居二線。
2008 年,時任 Wired 雜志的主編 Chris Anderson 預言了一種理論的消亡。他認為,現(xiàn)在已經積累了如此多的數據,而計算機在發(fā)現(xiàn)數據間的關系方面比人類表現(xiàn)的更好。很快,古老的科學方法,即假設、預測、檢驗,將被扔進歷史的垃圾箱。人們不再尋找事物的本質原因,而是滿足于數據間的相關性。
事后看來,Anderson 所看到的情況是真實的。大量數據的復雜性無法被我們傳統(tǒng)理解的理論所捕捉。
德國馬克斯普朗克生物控制論研究所所長、計算神經科學家 Peter Dayan 說:“因為不知道它們會是什么樣子的,所以我們甚至沒有能力寫出對描述有用的理論?!?/p>
但 Anderson 對理論終結的預測似乎為時過早。盡管 Facebook 和 AlphaFold 這樣的無理論基礎的預測引擎取得了成功,但理論不會消亡,此處有以下三個原因。
第一個原因是,我們已經意識到 AI,尤其是神經網絡這種機器學習形式,無需接受明確的指令即可從數據中學習,它們本身是容易出錯的。想想谷歌搜索引擎和亞馬遜招聘工具中記錄的偏見就可以明白。
第二,人類對沒有理論基礎的科學方法深感不安。我們就是不喜歡和黑匣子相處。
第三,可能仍然有很多傳統(tǒng)類型的理論(即人類可以理解的)可以有效地解釋很多事情,只是尚未被發(fā)現(xiàn)。
所以理論還沒有消亡,但它正在改變——也許還會變得面目全非。普林斯頓大學心理學家 Tom Griffiths 說:“擁有大量數據時的有意義的理論,與僅擁有少量數據時有意義的理論,看起來是完全不同?!?/p>
Griffiths 一直在使用神經網絡來幫助改進他所在領域的現(xiàn)有理論,即人類決策。一個關于人們在涉及經濟風險時如何做出決策的流行理論是前景理論,它由行為經濟學家 Daniel Kahneman 和 Amos Tversky 在 1970 年代提出的(后來 Kahneman 獲得了諾貝爾獎)。其核心理念是:人并非總是理性的。
圖2 Daniel Kahneman,人類行為前景理論的創(chuàng)始人之一
在 2021 年 6 月的 Science雜志上,Griffiths 的小組描述了他們如何在一個龐大的決策數據集上,訓練一個神經網絡模型,該數據集包含在 10,000 個有風險的選擇場景中人們做出的決策,然后比較模型預測有關前景理論的進一步決策的準確度。他們發(fā)現(xiàn)前景理論做得很好,但是神經網絡在突出理論失敗的地方(即預測失敗的地方)顯示出它的價值(參見“數據實戰(zhàn)派”往期報道)。
Griffiths 認為,這些反例反映的信息量更大,因為它們揭示了現(xiàn)實生活中存在的更多復雜性。例如,正如前景理論所描述的那樣,人類不斷地根據傳入的信息權衡概率。但是,當大腦要計算的競爭概率太多時,他們可能會轉向不同的策略。例如,受經驗法則的指導,股****經紀人的經驗法則,可能與青少年比特幣交易員的經驗法則不同,因為它來自不同的經驗。
“我們基本上是在使用機器學習系統(tǒng),來識別那些觀察與理論不一致的情況”,Griffiths 說。
數據集越大,人工智能學習的不一致就越多。最終得到的結果,不是傳統(tǒng)意義上的關于人們如何做出決定的精確主張的理論,而是一組受某些約束的主張。
一種描繪它的方式可能是“如果...那么...”類型規(guī)則的分支樹,這很難用數學來描述,更不用說用語言描述了。
可理解和預測性之間的權衡
人類也不是第一次面臨這種局面了。
1980 年代,語音識別軟件先驅 Frederick Jelinek 曾說說:每解雇一名團隊中的語言學家,語音識別器的性能就能獲得提高。
他的意思是,對理論的執(zhí)著某種程度上阻礙了實踐上的進步。
以預測而蛋白質結構的例子來說明。蛋白質的功能很大程度上取決于它的結構,因此,如果你想設計一種****物來阻斷或增強給定蛋白質的作用,你需要了解它的結構。
AlphaFold 使用 X 射線晶體學等技術,對實驗推導的結構進行了訓練,目前它對于有一些實驗數據的蛋白質的預測,比那些沒有實驗數據的蛋白質的預測更可靠。
歐洲生物信息學研究所 (EMBL-EBI) 前主任 Janet Thornton 說:”模型的可靠性是一直在提高的。缺少理論并不會阻止****物設計師使用它,這只會增進我們對生命和治療的理解?!?/p>
圖3 由 AlphaFold 程序模擬的蛋白質結構
同時,也有一部分人顯然對這種科學發(fā)展方向不太滿意。
例如,批評者指出,神經網絡可能會產生虛假的相關性,尤其是在訓練數據集很小的情況下。
而且所有數據集都是有偏見的,畢竟科學家們收集數據的方式不是均勻或中立的,而是始終考慮某些假設,這些假設對谷歌和亞馬遜的人工智能造成了破壞性影響。
正如科學哲學家 Sabina Leonelli 解釋的那樣:“我們使用的數據環(huán)境非常扭曲?!?/p>
雖然這些問題確實存在,但計算神經科學家Dayan并不認為它們是不可克服的。
他指出,人類也有偏見,而且與人工智能不同,人類是以非常難以審視或糾正的方式。
AI 新科學面臨的一個更大的障礙,可能是人類需要解釋這個世界——用因果關系來討論。
2019 年,西雅圖華盛頓大學的神經科學家 Bingni Brunton 和 Michael Beyeler 寫道:“這種對可解釋性的需求,可能阻礙了科學家們對大腦產生新的見解,這種見解只能從大型數據集中出現(xiàn)”。
但他們對此也表示同情。他們說:“如果要將這些見解轉化為****物和設備等有用的東西,計算模型必須產生對臨床醫(yī)生、最終用戶和行業(yè)可解釋和信任的洞察力?!?/p>
解決如何彌合可解釋性差距的——可解釋人工智能,已成為熱門話題。但這種差距只會越來越大,我們可能會面臨權衡取舍:愿意為可解釋性放棄多少可預測性?
對 AI 驅動的科學,還有最后一個反對意見是,人們對舊理論方法仍有待發(fā)現(xiàn),其中可能存在有用的地方(即從離散示例中提取的概括)。而且只有人類才能做到這一點,因為它需要直覺。
換句話說,它需要一種對一般規(guī)則相關的示例屬性,進行本能的歸納總結。
牛頓厲害的一點,他為了提出牛頓第二定律,必須忽略一些數據。例如,他必須想象,事物在真空中下落,不受空氣阻力的干擾。
上個月 Nature 發(fā)了一篇文章,德國數學家 Christian Stump 在文中表示,人類這種直覺行為是“發(fā)明/發(fā)現(xiàn)過程的核心”。但他寫這篇文章的原因是,DeepMind 建立了一個機器學習程序,該程序幫助人類數學家從以往的數學中獲得新的見解與概括。
因此,可以預見的是,2022 年,AI 會在各種科學過程中留下足跡。
我們越將它納入人類對知識的追求,它就越會改變這種追求。
我們必須學會忍受這一點,并向自己保證這樣一件事:人類仍然在問問題,正如 Pablo Picasso 在 1960 年代所說,“計算機是無用的。他們只能給人類答案?!?/p>
*博客內容為網友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。
回流焊相關文章:回流焊原理 汽車防盜機相關文章:汽車防盜機原理 頻譜分析儀相關文章:頻譜分析儀原理