Nature調(diào)查:1600余名科學家,僅4%認為AI當前是“必需品”
過去十年,關(guān)于人工智能(AI)的研究論文數(shù)量在各個領(lǐng)域都有顯著增加。
本文引用地址:http://2s4d.com/article/202310/451310.htm科學家們已經(jīng)開始運用 AI 工具來協(xié)助總結(jié)和撰寫研究論文和編寫代碼。一些研究者嘗試借助生成式 AI 技術(shù)來探索新的領(lǐng)域,如蛋白質(zhì)結(jié)構(gòu)的發(fā)現(xiàn)、天氣預(yù)報的改進以及醫(yī)學診斷的創(chuàng)新等各種有前景的領(lǐng)域。
AI 已然滲透到科學研究中。那么,科學家們是如何看待它們的?
近日,頂級期刊《自然》(Nature)對全球 1600 多名研究人員進行了一項調(diào)查。結(jié)果表明,AI 工具在科學領(lǐng)域越來越常見,并且許多科學家預(yù)計它們將很快成為研究實踐的核心。另外,超過一半的受訪者認為 AI 工具將在未來十年內(nèi)變得非常重要或必不可少。
相關(guān)調(diào)查結(jié)果以“AI and science: what 1,600 researchers think”為題,已發(fā)表在Nature上。
在這項調(diào)查中,有 2/3 的受訪者認為 AI 提供了更快的數(shù)據(jù)處理方式,58% 的人認為 AI 加速了以前不可行的計算,55% 的人則提到 AI 節(jié)省了時間和金錢。
來自杜克大學的計算生物學家 Irene Kaplow 表示:“AI 讓我能夠在以前難以攻克的生物學問題中取得進展?!?/p>
然而,也有 69% 的研究人員表示,AI 工具可能導致更多地依賴模式識別而不是深刻理解,58% 的人認為 AI 可能會在數(shù)據(jù)中強化偏見或歧視,55% 認為這些工具可能會增加欺詐的發(fā)生概率,53% 的人指出草率使用可能會導致研究無法重現(xiàn)。
任職康涅狄格州的杰克遜實驗室、從事癌癥圖像分析的 Jeffrey Chuang 表示:“主要問題在于 AI 正在挑戰(zhàn)我們現(xiàn)有的證據(jù)和真相標準。”
科學家的擔憂與興奮
為了評估活躍研究人員的觀點,《自然》雜志通過電子郵件聯(lián)系了在 2022 年最后 4 個月內(nèi)發(fā)表論文的 4 萬多名科學家,并邀請《自然簡報》的讀者參與調(diào)查。
在這些受訪者中,48% 的人直接開發(fā)或研究 AI,30% 的人在研究中使用了 AI,剩下的 22% 的人在科學中沒有使用 AI。
在那些在研究中使用 AI 的人中,超過 1/4 的人認為 AI 工具將在未來十年內(nèi)變得必不可少,而認為 AI 工具現(xiàn)在是“必需品”的人只占 4%。另有 47% 的人認為 AI 將變得非常有用。然而,不使用 AI 的研究人員對此并不太感興趣。即便如此,仍然有 9% 的人認為這些技術(shù)將在未來十年內(nèi)變得必不可少,另有 34% 的人表示它們將非常有用。
當被要求從可能的生成式 AI 負面影響列表中選擇時,68% 的研究人員擔心信息傳播不準確,另有 68% 的人認為這將使抄襲更容易,檢測更難,66% 的人擔心會引入錯誤或不準確的內(nèi)容到研究論文中。
此外,受訪者還提到,如果用于醫(yī)學診斷的 AI 工具是基于具有歷史偏見的數(shù)據(jù)進行訓練,他們擔心會出現(xiàn)偽造研究、虛假信息和偏見。科學家們已經(jīng)看到了這方面的證據(jù):例如,美國的一個團隊報告說,當他們要求 GPT-4 為臨床案例研究提供診斷和治療建議時,答案會根據(jù)患者的種族或性別而變化。
英國布里斯托爾大學攻讀醫(yī)學 AI 博士學位的軟件工程師和前企業(yè)家 Isabella Degen 表示:“大型語言模型(LLMs)被濫用,存在不準確和虛假但聽起來專業(yè)的結(jié)果。在我看來,我們對于正確使用和濫用之間的界限認識還不夠清晰?!?/p>
研究人員認為,最明顯的好處是 LLMs 可以幫助非英語母語的研究人員,改進他們研究論文的語法和風格,總結(jié)或翻譯其他工作。新加坡國立大學材料科學家 Kedar Hippalgaonkar 指出,“盡管存在一小部分惡意玩家,但學術(shù)界可以展示如何善用這些工具。”
即使在對 AI 感興趣的研究人員中,經(jīng)常在工作中使用 LLMs 的研究人員也仍占少數(shù)。那些學習AI 的人中有 28% 表示每天或每周使用生成式 AI 產(chǎn)品,而僅使用 AI 的人中有 13% 這樣做,而其他人中只有 1%,盡管許多人至少嘗試過這些工具。此外,所有群體中最流行的用途是與研究無關(guān)的創(chuàng)意娛樂;較少一部分人使用這些工具來編寫代碼、構(gòu)思研究思路和幫助撰寫研究論文。
另外,一些科學家對 LLMs 的輸出并不滿意。一位使用 LLMs 來幫助編輯論文的研究人員寫道:“ChatGPT 好像復制了人類的所有不良寫作習慣。”芬蘭圖爾庫大學的物理學家 Johannes Niskanen 則表示:“如果我們開始使用 AI 來閱讀和撰寫文章,科學很快就會從‘由人類為人類(for humans by humans)’轉(zhuǎn)變?yōu)椤蓹C器為機器(‘for machines by machines)’。”
AI 發(fā)展面臨困境
在這項調(diào)查中,大約一半的科學家表示他們在開發(fā)或使用 AI 方面遇到了阻礙。直接研究 AI 的研究人員最擔心的問題包括計算資源不足、為其工作提供的融資不足以及獲取運行 AI 所需的高質(zhì)量數(shù)據(jù)不足。而那些在其他領(lǐng)域工作但在研究中使用 AI 的人則更擔心缺乏熟練的科學家和訓練資源,此外,他們還提到了安全和隱私方面的考慮。然而,不使用 AI 的研究人員表示他們不需要 AI 或認為它不實用,或者缺乏研究 AI 的經(jīng)驗和時間。
調(diào)查中出現(xiàn)的另一個主題是商業(yè)公司主導了 AI 的計算資源和 AI 工具的所有權(quán)。研究 AI 的科學家中有 23% 表示他們與開發(fā)這些工具的公司合作或在這些公司工作(其中最常提到的是谷歌和微軟),而使用 AI 的人中只有 7% 這樣做??傮w而言,略多于一半的受訪者認為,使用 AI 的研究人員與這些公司的科學家合作是非常重要或有些重要的。
此前,已有研究人員多次警告稱,科學中對 AI 工具的天真使用可能導致錯誤、虛假陽性和無法重現(xiàn)的研究結(jié)果,從而潛在地浪費時間和精力。一些科學家表示,他們擔心使用 AI 的論文中存在質(zhì)量不佳的研究。
堪薩斯州立大學曼哈頓分校的計算機科學家 Lior Shamir 表示,“機器學習有時可能有用,但 AI 引發(fā)的問題比幫助多??茖W家在不了解自己在做什么的情況下使用 AI,可能會導致虛假的發(fā)現(xiàn)。”
當問及期刊編輯和同行評審人是否能夠充分審查使用 AI 的論文時,受訪者意見不一。在那些使用 AI 進行工作但不直接開發(fā) AI 的科學家中,大約一半表示不知道, 1/4 認為審查是充分的,1/4 認為不充分。直接開發(fā) AI 的人傾向于對編輯和審查過程持更積極的看法。
另外,《自然》還詢問了受訪者對于 AI 在社會的 7 種潛在影響的擔憂程度,2/3 的人表示他們對此非常擔憂或很擔憂。自動化 AI 武器和 AI 輔助監(jiān)視也高居榜首,最不令人擔憂的是 AI 可能對人類構(gòu)成生存威脅的想法。
然而,許多研究人員表示,AI 和 LLMs 已經(jīng)成為不可回避的趨勢。波士頓馬薩諸塞州貝斯以色列圣救主醫(yī)療中心的肝病專家 Yury Popov 寫道:“AI 是具有變革性的,我們現(xiàn)在必須關(guān)注如何確保它帶來更多的好處,而不是問題。”
評論