OpenAI新模型GPT-5或?qū)o緣明年發(fā)布
AI的下一個飛躍似乎沒法準時報道了。據(jù)外媒報道,OpenAI在推進其下一代核心模型GPT-5(代號Orion)的開發(fā)正面臨重重困難,該項目已開發(fā)超過18個月,成本花費巨大卻仍未取得預期成果。
本文引用地址:http://2s4d.com/article/202412/465753.htm內(nèi)部消息透露OpenAI已經(jīng)完成了至少兩次大型訓練運行,希望通過對大量數(shù)據(jù)的訓練來改進模型。然而,訓練進程較預期滯后,預示著更大規(guī)模的訓練任務不僅耗時冗長,而且經(jīng)濟成本高昂。
估算顯示,GPT-5一次為期6個月的訓練僅計算成本就高達約5億美元。OpenAI首席執(zhí)行官薩姆·阿爾特曼(Sam Altman)則表示,未來的AI模型成本預計將超過10億美元。
模型的測試是一個持續(xù)的過程,大規(guī)模的訓練運行可能需要幾個月的時間,數(shù)萬億個token會被“投喂”給模型。想要讓GPT-5變得更智能,就需要更多高質(zhì)量、多樣化的數(shù)據(jù),為解決這一問題,OpenAI選擇從頭開始創(chuàng)建數(shù)據(jù) —— 他們雇傭軟件工程師和數(shù)學家等專業(yè)人士編寫新代碼或解決數(shù)學問題,以此作為訓練數(shù)據(jù)。另外,OpenAI也開始開發(fā)“合成數(shù)據(jù)”,利用AI生成的數(shù)據(jù)來訓練Orion,并認為可以通過使用其另一個AI模型o1生成的數(shù)據(jù)來避免故障。
值得注意的是,薩姆·阿爾特曼此前已公開承認,隨著AI模型復雜度急劇上升,公司在多線程項目管理,尤其是計算資源的高效配置上,正面臨前所未有的挑戰(zhàn)。鑒于此,OpenAI已預計GPT-5將無緣下一年發(fā)布。
OpenAI首席產(chǎn)品官Kevin Weil進一步闡釋了公司的當前戰(zhàn)略重心,強調(diào)在推動視頻模型Sora進入下一階段重大升級之前,將致力于提升模型的安全性、模擬精準度以及計算規(guī)模的可擴展性,確保各項標準均達到行業(yè)頂尖水平。
OpenAI的下一個旗艦模型可能并不像其前輩那樣代表著巨大的飛躍,盡管新模型的性能超過了OpenAI的現(xiàn)有模型,但與從GPT-3到GPT-4的躍升過程中所看到的相比,新模型的性能提升幅度較小。
評論