OpenAI再度回歸“開放”賽道,一場(chǎng)精心布局的陽謀
8月6日凌晨(美東時(shí)間8月5日),OpenAI發(fā)布了兩款免費(fèi)試用的開放權(quán)重語言模型gpt-oss-120b和gpt-oss-20b,同時(shí)放出的34頁技術(shù)報(bào)告顯示模型采用了最先進(jìn)的預(yù)訓(xùn)練和后訓(xùn)練技術(shù),但沒有提供用于訓(xùn)練模型的數(shù)據(jù)。
OpenAI聯(lián)合創(chuàng)始人兼首席執(zhí)行官山姆·奧特曼(Sam Altman)在社交媒體表示:“gpt-oss是一個(gè)重大突破,這是最先進(jìn)的開放權(quán)重推理模型,具有與o4-mini相當(dāng)?shù)膹?qiáng)大現(xiàn)實(shí)世界性能,可以在你自己的電腦(或手機(jī)的較小版本)上本地運(yùn)行。我們相信這是世界上最好、最實(shí)用的開放模型?!?/p>
gpt-oss系模型是OpenAI自2019年GPT-2后,時(shí)隔六年再度回歸“開放”賽道,也是OpenAI與微軟簽署獨(dú)家云服務(wù)協(xié)議六年來問世的首批此類模型。不僅讓普通開發(fā)者能用個(gè)人設(shè)備玩轉(zhuǎn)高級(jí)AI,更給白熱化的開源大模型競(jìng)爭(zhēng)添了一把火。
· gpt-oss-120b:1170億參數(shù),每token激活51億參數(shù),單張GPU即可運(yùn)行,適合中小型企業(yè)的專業(yè)級(jí)任務(wù)。在核心推理基準(zhǔn)測(cè)試中,120B模型的表現(xiàn)與OpenAI o4-mini相當(dāng),并且能在單張80GB顯存的GPU上高效運(yùn)行(如H100)。
· gpt-oss-20b:210億參數(shù),每token激活36億參數(shù),適用于低延遲、本地或?qū)I(yè)化場(chǎng)景。在常用基準(zhǔn)測(cè)試中,20B模型的表現(xiàn)與OpenAI o3-mini類似,并且能在僅有16GB顯存的邊緣設(shè)備上運(yùn)行。
與API中的OpenAI o系列推理模型相似,gpt-oss兩款模型開源模型支持三種推理投入 —— 低、中、高,開發(fā)者只需在系統(tǒng)提示詞中加入一句話,即可在延遲與性能間靈活切換。除此之外,兩款模型在工具使用、少樣本函數(shù)調(diào)用、CoT推理以及HealthBench評(píng)測(cè)中也表現(xiàn)強(qiáng)勁,甚至比OpenAI的o1和GPT-4o等專有模型還要更強(qiáng)。不過,OpenAI暫未公布與DeepSeek-R1等競(jìng)品的直接對(duì)比數(shù)據(jù)。
比肩旗艦o3/o4-mini
在多個(gè)基準(zhǔn)測(cè)試中,gpt-oss-120b堪比旗艦級(jí)o系模型的性能。具體來說,在編程競(jìng)賽(Codeforces)、通用問題解決(MMLU和HLE)以及工具調(diào)用(TauBench)方面,它直接超越了o3-mini,達(dá)到甚至超越了o4-mini的水平;在健康相關(guān)查詢(HealthBench?)、數(shù)學(xué)競(jìng)賽(AIME 2024&2025)基準(zhǔn)中,它的表現(xiàn)甚至優(yōu)于o4-mini。
而盡管gpt-oss-20b規(guī)模較小,但在相同的評(píng)估中,其表現(xiàn)與o3-mini持平或更優(yōu),甚至在AIME、健康領(lǐng)域基準(zhǔn)上的表現(xiàn)超越了o3-mini。
此外,它們都采用了Transformer架構(gòu)并融入專家混合(MoE)設(shè)計(jì),減少處理輸入時(shí)激活參數(shù)量。同時(shí),gpt-oss模型在推理能力、效率以及在廣泛部署環(huán)境中的實(shí)用性上更強(qiáng),借鑒了GPT-3設(shè)計(jì)理念,采用了交替的密集和局部帶狀稀疏注意力模式,支持高達(dá)128k的上下文長度。
· 支持微調(diào):支持參數(shù)級(jí)微調(diào),可根據(jù)您的特定用例對(duì)模型進(jìn)行完全定制。
· 智能體能力:利用模型原生的函數(shù)調(diào)用、網(wǎng)頁瀏覽、Python代碼執(zhí)行和結(jié)構(gòu)化輸出等能力。
· 原生MXFP4量化:在訓(xùn)練時(shí),模型的混合專家(MoE)層便采用了原生的MXFP4精度,使得gpt-oss-120b在單張H100 GPU上即可運(yùn)行,而gpt-oss-20b僅需16GB內(nèi)存。
OpenAI近期研究表明,未經(jīng)直接監(jiān)督訓(xùn)練的CoT有助于發(fā)現(xiàn)模型潛在不當(dāng)行為。同樣,遵循o1-preview?的設(shè)計(jì)原則,研究團(tuán)隊(duì)并未對(duì)gpt-oss模型CoT直接監(jiān)督,讓模型更加透明。
gpt-oss-120b和gpt-oss-20b的開源,標(biāo)志著OpenAI終于在開源模型上邁出了重要一步,標(biāo)志著AI行業(yè)的一個(gè)轉(zhuǎn)折點(diǎn)。健康的開放模型生態(tài)系統(tǒng),是讓AI普及并惠及所有人的一個(gè)重要方面,更重要的是,模型開源降低了一些群體,比如新興市場(chǎng)、缺少算力小企業(yè)的準(zhǔn)入門檻。
OpenAI聯(lián)合創(chuàng)始人格雷格?布羅克曼強(qiáng)調(diào):“開放模型的獨(dú)特價(jià)值在于本地化部署:企業(yè)能在自家防火墻內(nèi)、個(gè)人可在筆記本上運(yùn)行,數(shù)據(jù)隱私和安全更可控。”不過,此次發(fā)布的gpt-oss-120b和gpt-oss-20b,核心亮點(diǎn)是“開放權(quán)重”(open-weight),而不是我們更熟悉的“開源”。開放權(quán)重模型僅公開訓(xùn)練好的“參數(shù)權(quán)重”(相當(dāng)于模型的知識(shí)儲(chǔ)備),開發(fā)者可直接用這些權(quán)重微調(diào)模型,無需原始訓(xùn)練數(shù)據(jù);而開源(open-source)模型會(huì)公開完整代碼、訓(xùn)練數(shù)據(jù)和方法論,開放程度更高。
OpenAI為何選擇“回歸”?
OpenAI此次發(fā)布開放權(quán)重模型很大程度上受到市場(chǎng)競(jìng)爭(zhēng)壓力驅(qū)動(dòng),特別是來自中國DeepSeek的挑戰(zhàn) —— Sam Altman曾坦言在開源策略上“站在了歷史錯(cuò)誤的一邊”,這次的發(fā)布正是對(duì)“錯(cuò)誤”的一次高調(diào)修正。自2019年以來,OpenAI一直專注于通過API提供專有模型服務(wù),而競(jìng)爭(zhēng)對(duì)手紛紛推出開放權(quán)重替代方案,2024年的開源大模型賽道早已不是一家獨(dú)大:此前,Meta的Llama系列長期占據(jù)標(biāo)桿地位;今年初,DeepSeek發(fā)布高性價(jià)比的DeepSeek-R1模型,打破壟斷。開發(fā)者有了更多、更便宜的選擇,OpenAI再不跟進(jìn),就要掉隊(duì)了。
而在最大的競(jìng)爭(zhēng)對(duì)手之一Meta傳出可能因安全問題收縮開源投入的時(shí)候,OpenAI選擇此時(shí)入場(chǎng),意圖非常明顯就是想要搶占開發(fā)者入口,用免費(fèi)、強(qiáng)大的模型吸引海量開發(fā)者進(jìn)入自家生態(tài),培養(yǎng)用戶習(xí)慣,為未來更強(qiáng)大的閉源模型和服務(wù)鋪路。這不僅是一次簡單的產(chǎn)品發(fā)布,更像是一次重大的戰(zhàn)略轉(zhuǎn)向,它背后是來自競(jìng)爭(zhēng)對(duì)手的壓力,更是一場(chǎng)精心布局的陽謀。
利好開發(fā)者的是,gpt-oss兩款模型與Responses API?兼容,專為智能體工作流打造,在指令遵循、工具使用、推理上極其強(qiáng)大。從“只能用云服務(wù)”到“裝進(jìn)背包隨時(shí)跑”,OpenAI這步棋不僅讓AI更親民,更可能倒逼整個(gè)行業(yè)向「輕量化、本地化」加速進(jìn)化。
幾乎同步,亞馬遜宣布這兩款模型已登陸AWS的Bedrock生成式AI市場(chǎng),這是OpenAI模型首次入駐該平臺(tái),但雙方未披露具體合作條款;微軟也將GPU優(yōu)化版本的gpt-oss-20b模型引入Windows設(shè)備。此次開放模型的發(fā)布可以視為OpenAI構(gòu)建開放生態(tài)的關(guān)鍵一步:既降低開發(fā)者門檻,又能通過AWS等平臺(tái)擴(kuò)大影響力,最終在商業(yè)化與技術(shù)普及間找到平衡。
評(píng)論