新聞中心

EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 速度放緩!OpenAI新旗艦?zāi)P瓦M(jìn)步幅度沒那么大

速度放緩!OpenAI新旗艦?zāi)P瓦M(jìn)步幅度沒那么大

作者: 時間:2024-11-12 來源:網(wǎng)易科技 收藏

11月11日消息,盡管使用產(chǎn)品的人數(shù)在激增,但支撐這些技術(shù)的底層模塊的改進(jìn)速度似乎正在放緩。為此,的開發(fā)者正在開發(fā)新技術(shù),以增強(qiáng)大語言模型等核心模塊,從而應(yīng)對這一挑戰(zhàn)。

本文引用地址:http://2s4d.com/article/202411/464504.htm

即將推出的旗艦?zāi)P汀矮C戶座”(Orion)所面臨的挑戰(zhàn)突顯了公司當(dāng)前遇到的難題。今年5月,首席執(zhí)行官薩姆·奧特曼(Sam Altman)在內(nèi)部透露,他預(yù)計正在訓(xùn)練中的獵戶座將顯著優(yōu)于一年前發(fā)布的上一代旗艦?zāi)P?。?jù)知情人士稱,盡管獵戶座的訓(xùn)練進(jìn)度僅完成20%,但其智能和任務(wù)完成能力已與GPT-4不相上下。

不過,一些使用或測試過獵戶座的OpenAI員工表示,盡管其性能確實(shí)超越了前代模型,但提升幅度遠(yuǎn)不及從GPT-3到GPT-4的躍升。一些研究人員指出,獵戶座在處理特定任務(wù)時未必穩(wěn)定優(yōu)于前代模型。一位員工表示,獵戶座在語言任務(wù)上表現(xiàn)出色,但在編碼等任務(wù)中可能不如之前的模型。這種情況可能會帶來問題,因為與OpenAI近期發(fā)布的其他模型相比,獵戶座在數(shù)據(jù)中心的運(yùn)行成本更高。

獵戶座的表現(xiàn)正在考驗領(lǐng)域的核心假設(shè)——縮放定律,即只要數(shù)據(jù)量和計算能力持續(xù)增加,大語言模型就能不斷改進(jìn)。面對GPT改進(jìn)速度放緩帶來的挑戰(zhàn),業(yè)界似乎正將重點(diǎn)轉(zhuǎn)向初始訓(xùn)練后的模型優(yōu)化,這可能會產(chǎn)生一種新的縮放定律。

Facebook母公司Meta首席執(zhí)行官馬克·扎克伯格(Mark Zuckerberg)在內(nèi)的一些科技領(lǐng)袖認(rèn)為,即使在技術(shù)未能進(jìn)一步突破的最壞情況下,基于當(dāng)前技術(shù)仍然有很大的開發(fā)空間來創(chuàng)建面向消費(fèi)者和企業(yè)的產(chǎn)品。

OpenAI正在應(yīng)對競爭對手Anthropic的威脅,將更多的代碼編寫功能嵌入其模型中,并開發(fā)能夠模擬人類操作計算機(jī)的軟件,以完成涉及瀏覽器和應(yīng)用程序操作的白領(lǐng)任務(wù),如點(diǎn)擊、光標(biāo)移動和文本輸入等。

這些產(chǎn)品屬于能夠執(zhí)行多步驟任務(wù)的AI代理范疇,其革命性可能與的首次發(fā)布相當(dāng)。

扎克伯格、奧特曼及其他開發(fā)者的高管表示,他們尚未觸及傳統(tǒng)縮放定律的極限。也因此,包括OpenAI在內(nèi)的公司依舊投資數(shù)十億美元建設(shè)數(shù)據(jù)中心,以盡可能提高預(yù)訓(xùn)練模型的性能。

然而,OpenAI研究員諾姆·布朗(Noam Brown)在上月的TEDAI大會上提出警告,認(rèn)為開發(fā)更先進(jìn)的模型可能在經(jīng)濟(jì)上變得不可持續(xù)。他表示:“我們真的會投入數(shù)千億甚至萬億美元來訓(xùn)練模型嗎?縮放模式在某個時刻會失效?!?/p>

在公開發(fā)布獵戶座之前,OpenAI仍需完成復(fù)雜的安全測試。據(jù)員工透露,獵戶座可能會在明年初發(fā)布,并可能放棄傳統(tǒng)的“GPT”命名方式,以突顯大語言模型改進(jìn)的新特性。對此,OpenAI發(fā)言人未予置評。

數(shù)據(jù)匱乏成為模型訓(xùn)練的瓶頸

OpenAI的員工和研究人員指出,GPT進(jìn)步放緩的原因之一在于高質(zhì)量文本和其他數(shù)據(jù)的供應(yīng)日益減少。大語言模型在預(yù)訓(xùn)練階段需要這些數(shù)據(jù)來理解世界和不同概念之間的關(guān)系,以解決如撰寫博文或修復(fù)編碼錯誤等問題。

近年來,大語言模型主要依賴于網(wǎng)站、書籍等來源的公開文本數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,但開發(fā)者已幾乎耗盡了這類數(shù)據(jù)的潛力。為此,OpenAI組建了由曾負(fù)責(zé)預(yù)訓(xùn)練的尼克·賴德(Nick Ryder)領(lǐng)導(dǎo)的基礎(chǔ)團(tuán)隊,致力于研究如何應(yīng)對數(shù)據(jù)短缺問題,并探索縮放定律的持續(xù)適用性。

據(jù)OpenAI員工透露,獵戶座部分使用了由其他OpenAI模型(如GPT-4和最近發(fā)布的推理模型)生成的AI數(shù)據(jù)進(jìn)行訓(xùn)練。然而,這種合成數(shù)據(jù)也帶來了新問題,可能導(dǎo)致獵戶座在某些方面與前代模型過于相似。

OpenAI的研究人員正在利用其他工具,通過改進(jìn)特定任務(wù)的處理方式來優(yōu)化模型后期的表現(xiàn)。他們采用一種稱為強(qiáng)化學(xué)習(xí)的方法,讓模型從大量已正確解決的問題中學(xué)習(xí),如數(shù)學(xué)和編碼問題。

此外,研究人員還邀請人類評估員在編碼或問題解決任務(wù)上測試預(yù)訓(xùn)練模型,并對其答案進(jìn)行評分,這有助于研究人員調(diào)整模型,使其在寫作和編碼等請求上的表現(xiàn)更佳。這一過程稱為帶有人類反饋的強(qiáng)化學(xué)習(xí),也曾幫助過早期的AI模型改進(jìn)。

OpenAI及其他AI開發(fā)商通常依賴初創(chuàng)公司,如Scale AI和Turing,來管理成千上萬名承包商,以處理這些評估工作。

OpenAI還開發(fā)了一種名為o1的推理模型,該模型在回答前會花費(fèi)更多時間“思考”訓(xùn)練數(shù)據(jù),這一過程稱為測試時間計算。這意味著,即使不改變底層模型,給o1分配更多計算資源,也可以持續(xù)提高其響應(yīng)質(zhì)量。據(jù)知情人士透露,即使底層模型改進(jìn)速度較慢,若OpenAI能保持持續(xù)改進(jìn),仍然可以實(shí)現(xiàn)更好的推理效果。

“這為模型擴(kuò)展開辟了新維度,”布朗在TED大會上說。他補(bǔ)充道,研究人員可以通過“每次查詢成本從1美分提高到10美分”來提升模型響應(yīng)質(zhì)量。

奧特曼也強(qiáng)調(diào)了推理模型的重要性,認(rèn)為它可與大語言模型結(jié)合使用?!拔蚁M评砟芰δ軌蚪怄i我們多年未能實(shí)現(xiàn)的突破,比如讓模型在科學(xué)研究和復(fù)雜代碼編寫中做出貢獻(xiàn),”奧特曼在一場應(yīng)用開發(fā)者活動中表示。

在最近接受Y Combinator首席執(zhí)行官陳嘉興(Garry Tan)采訪時,奧特曼透露:“我們基本上知道如何實(shí)現(xiàn)通用人工智能——一種能達(dá)到人類能力的技術(shù),其中一部分是創(chuàng)造性地運(yùn)用現(xiàn)有模型?!?/p>

數(shù)學(xué)家和科學(xué)家們表示,o1對他們的研究工作有幫助,能作為合作伙伴提供反饋和啟發(fā)。然而,據(jù)兩位知情員工透露,由于o1的價格是非推理模型的六倍,因此其客戶基礎(chǔ)尚未普及。

突破瓶頸,提升推理能力

一些對AI開發(fā)商投資數(shù)千萬美元的投資者疑慮大語言模型的改進(jìn)速度是否開始趨于平穩(wěn)。

風(fēng)險投資家本·霍洛維茨(Ben Horowitz)在YouTube一段視頻中表示:“我們正以相同的速度增加訓(xùn)練AI的圖形處理單元,但在智能提升方面未見顯著改善?!被袈寰S茨的風(fēng)投公司不僅是OpenAI的股東,還投資了Mistral和Safe Superintelligence等競爭對手。

霍洛維茨的同事馬克·安德森(Marc Andreessen)在同一視頻中指出:“許多聰明人在致力于突破瓶頸,探索如何提升推理能力?!?/p>

企業(yè)軟件公司Databricks聯(lián)合創(chuàng)始人兼主席伊翁·斯托伊卡(Ion Stoica)表示,大語言模型在某些方面可能已趨于穩(wěn)定,但在其他領(lǐng)域仍有改進(jìn)空間。他還開發(fā)了一個網(wǎng)站,供應(yīng)用開發(fā)者評估不同的大語言模型。

斯托伊卡稱,盡管AI在編碼和解決復(fù)雜問題上不斷進(jìn)步,但在執(zhí)行通用任務(wù)(如分析文本情感或描述醫(yī)療癥狀)時,進(jìn)展似乎放緩。

“在常識性問題上,我們似乎看到大語言模型的表現(xiàn)趨于平穩(wěn)。為實(shí)現(xiàn)進(jìn)一步突破,我們需要更多的事實(shí)性數(shù)據(jù),而合成數(shù)據(jù)幫助有限?!?/p>



評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉