谷歌AI掌門人:發(fā)展AI不能只靠堆硬件,想把大模型和AlphaGo能力結合
2月20日消息,在接受《連線》雜志采訪時,Google DeepMind首席執(zhí)行官戴米斯·哈薩比斯(Demis Hassabis)表示,盡管人工智能領域已取得了顯著的進展,但真正的突破尚未到來。他強調,簡單地擴大規(guī)模無法推進行業(yè)的發(fā)展。
本文引用地址:http://2s4d.com/article/202402/455499.htm在過去一年中,OpenAI通過ChatGPT等項目在業(yè)界獨占鰲頭。然而,在哈薩比斯的帶領下,Google DeepMind并未因此氣餒,而是在人工智能模型研發(fā)上展現了強大的競爭力和創(chuàng)新精神。
自從Alphabet去年4月合并了其兩個人工智能部門為Google DeepMind后,哈薩比斯一直專注于整合資源,應對OpenAI的崛起及其與微軟的深度合作,后者被Alphabet視為對其核心業(yè)務——搜索引擎的潛在威脅。
哈薩比斯透露,谷歌研究人員在ChatGPT發(fā)布前已有類似想法,但由于擔心濫用和誤用,決定暫不商業(yè)化該技術。
隨著多模態(tài)人工智能模型Gemini的迅猛發(fā)展,Google DeepMind在研究和發(fā)布速度上發(fā)生了巨大變化。Gemini不僅提升了谷歌在與ChatGPT競爭中的實力,也強化了多個谷歌產品。Gemini發(fā)布兩個月后,谷歌推出了更為強大的免費版Gemini Pro 1.5,該模型能同時分析大量文本、視頻和音頻數據。
隨著科技巨頭們紛紛開發(fā)和推出更強大、實用的人工智能系統(tǒng),Alphabet推出的Gemini Ultra模型無疑為行業(yè)樹立了新標桿,并可能促使競爭對手如OpenAI加速研發(fā)。
最近,哈薩比斯在倫敦家中接受了《連線》雜志資深作家威爾·奈特(Will Knight)的專訪,深入探討了Gemini Pro 1.5的技術細節(jié)和未來發(fā)展,及人工智能領域的趨勢。
全文如下:
問:Gemini Pro 1.5能接收更多數據作為輸入,并采用了名為“專家混合”的架構,這兩者之間是什么關系?
哈薩比斯:Gemini Pro 1.5能處理適中大小的短片。想象你在學習某主題,有一個小時的視頻講座,你需要找到特定事實或內容,這非常有用。我相信這將帶來許多令人驚嘆的用例。
在Google DeepMind首席科學家杰夫·迪恩(Jeff Dean)的領導下,我們發(fā)明了“專家混合”架構,并不斷優(yōu)化改進。盡管Gemini Pro 1.5還未廣泛測試,但性能已與上一代最大模型相當。這表明我們有能力利用這些技術創(chuàng)新創(chuàng)建更大的模型,這正是我們的努力方向。
問:計算能力增強和用于訓練AI模型的數據量增加,是否推動了人工智能進步?據說,奧特曼打算籌集高達7萬億美元資金提高AI芯片產量,更強的計算能力會開啟超級AI之門嗎?
哈薩比斯:確實,這些因素推動了人工智能巨大進步。這也是為何像英偉達這樣的公司如此成功,以及OpenAI提高芯片產量加速AI發(fā)展的原因。然而,我認為DeepMind與其他組織有所不同,始終將基礎研究放在首位。在Google Research、Brain和DeepMind等部門,我們在過去10年的開創(chuàng)性工作中發(fā)明了多數機器學習技術。這是我們的核心競爭力,我們擁有大量其他機構可能不具備的資深研究科學家。相較之下,其他公司更注重工程研究以推動科學進步。
問:你認為擴展規(guī)模不再是AI發(fā)展唯一途徑?
哈薩比斯:我堅信,實現通用AI(AGI)需要更多技術創(chuàng)新和規(guī)模擴展。雖然規(guī)模擴展仍在繼續(xù),并且沒有看到任何停止的跡象,但我們不能僅依賴它獲得新能力,如規(guī)劃、工具使用或類主體行為,這需技術創(chuàng)新實現。我們還需在計算本身探索。我們希望在小型問題上實驗,這只需幾天訓練。但發(fā)現小型規(guī)模上有效的方法在擴展時不適用,所以我們需找到平衡點,推斷可能適用于更大規(guī)模的方法時進行擴展。
問:這是否意味著未來AI公司競爭是否將圍繞工具使用和智能體展開,即AI可以做很多事,不僅限于聊天?據稱OpenAI正在研究這個問題。
哈薩比斯:可能。我們在這條路上探索了很長時間。自AlphaGo以來,智能體、強化學習和規(guī)劃一直是我們的主要工作。2016年,DeepMind開發(fā)了一種突破性算法,能解決復雜問題和玩復雜游戲。我們正在重新審視很多想法,并考慮將AlphaGo的能力與這些大模型結合。內省和規(guī)劃能力將有助于消除幻覺等問題。
問:如何引導模型使其更具邏輯性?
哈薩比斯:這是一個大領域,我們投入了大量時間和精力。我們認為,當系統(tǒng)開始變得更像智能主體時,這將是它們能力的重大進步。我們在這方向投入了大量資金,其他公司也一樣。我一直在安全論壇和會議上說,這是一個大改變。一旦我們讓類似智能體的系統(tǒng)工作起來,人工智能就會與目前系統(tǒng)(基本上是被動問答系統(tǒng))大不同,因為它們會變成主動型學習者。當然,它們也會更有用,因為能幫你完成任務。但我們將不得不更加小心。
我一直主張把智能體放到網上之前,用強化的模擬沙盒測試它們。我認為行業(yè)應認真考慮這些系統(tǒng)的出現,并采取措施確保安全性。也許要幾年,也許更早,但這是另一類不同的系統(tǒng)。
問:你提到需要更多時間來測試你們最強模型Gemini Ultra。這是因為模型開發(fā)進度過快,還是因為這類大型模型存在潛在問題?
哈薩比斯:實際上兩方面都有。模型規(guī)模越大,微調時面臨的挑戰(zhàn)越復雜,所需時間越長。更大模型具備更多功能,意味著我們需更全面測試。
值得一提的是,隨著Google DeepMind變成更成熟穩(wěn)定的組織,我們開始嘗試新的發(fā)布策略。我們會提前發(fā)布實驗性功能或模型,并邀請少部分受信任的早期測試者體驗。這樣,我們可以在正式發(fā)布前收集反饋并進行必要的調整。
問:關于安全性問題,你們與英國人工智能安全研究所等政府機構合作進展如何?
哈薩比斯:合作非常順利。雖然我不能透露太多細節(jié),因為這是保密的,但可以確認,他們正在對我們的前沿模型包括Gemini Ultra進行測試。我們將繼續(xù)與他們保持密切合作。
此外,美國也在建立類似人工智能安全機構。這些機構都是在布萊切利公園人工智能安全峰會推動下成立的,旨在審查和監(jiān)管人工智能系統(tǒng),特別是涉及敏感領域如化學、生物、放射性和核武器等。目前系統(tǒng)還沒有強大到足以引發(fā)實質性安全擔憂的程度。但加強政府、行業(yè)和學術界在人工智能安全方面的合作和投入仍非常必要。隨著智能體系統(tǒng)等新型人工智能技術出現,我們可能面臨更多新挑戰(zhàn)和變化。我們會看到漸進式改進,可能有很酷的大改進,但會感覺不同。
評論