2024 年,GPU 能降價(jià)嗎?
2023 過(guò)去,當(dāng)我們回顧這一年的最受產(chǎn)業(yè)關(guān)注的芯片,相信大多數(shù)人會(huì)將票投向 GPU。2023 年中,我們總能聽(tīng)到「GPU 緊缺」、「英偉達(dá)狂飆」、「黃仁勛分享成功秘訣」。
本文引用地址:http://2s4d.com/article/202401/454904.htm無(wú)可否認(rèn),2023 年生成式 AI 的熱潮無(wú)邊無(wú)際,全球高科技公司都涌入了 AI 的軍備競(jìng)賽。隨之帶來(lái)的是算力告急、全球瘋搶 GPU。
全球最火的 GPU
2023 年層出不窮地傳出,人工智能 AI 大模型的消息。OpenAI、百度、谷歌、騰訊都在搭建屬于自己的大模型。對(duì)于這些五花八門(mén)的大模型,我們不多贅述,但大模型的搭建,最需要的就是 GPU,而 2023 年需求量最大的 GPU 不外乎:A100/H100。
首當(dāng)其沖的就是 A100GPU。OpenAI 使用的是 3,617 臺(tái) HGXA100 服務(wù)器,包含近 3 萬(wàn)塊英偉達(dá) GPU。國(guó)內(nèi)云計(jì)算相關(guān)專家認(rèn)為,做好 AI 大模型的算力最低門(mén)檻是 1 萬(wàn)枚英偉達(dá) A100 芯片。
TrendForce 研究則顯示,以 A100 的算力為基礎(chǔ),GPT-3.5 大模型需要高達(dá) 2 萬(wàn)枚 GPU,未來(lái)商業(yè)化后可能需要超過(guò) 3 萬(wàn)枚。
H100 也是業(yè)內(nèi)追求的對(duì)象。H100 于去年 9 月量產(chǎn),由臺(tái)積電 4N 工藝代工。相較于前任 A100,H100 單卡在推理速度上提升 3.5 倍,在訓(xùn)練速度上提升 2.3 倍;如果用服務(wù)器集群運(yùn)算的方式,訓(xùn)練速度更是能提高到 9 倍,原本一個(gè)星期的工作量,現(xiàn)在只需要 20 個(gè)小時(shí)。
考慮到整體系統(tǒng)成本,H100 每美元產(chǎn)生的性能比 A100 還要高 4 到 5 倍之多。與 A100 相比,H100 的單卡價(jià)格更貴,但是由于其訓(xùn)練、推理效率增加,成為了最具性價(jià)比的產(chǎn)品。
正因如此,科技大廠各個(gè)都搶著要買(mǎi)英偉達(dá) H100GPU,或者更準(zhǔn)確地說(shuō),是英偉達(dá)的 8-GPU HGX H100SXM 服務(wù)器。
英偉達(dá)成為了最受關(guān)注的賣(mài)鏟人。針對(duì)中國(guó)市場(chǎng),還按照 A800 操作模式(A100 芯片的降維版本),推出了完全符合出口規(guī)定的 H100 的降維版本芯片。
熱情的買(mǎi)家
「GPU 就是新時(shí)代的比特幣?!筄penAI 首席科學(xué)家 IlyaSutskever 將這句話寫(xiě)在他個(gè)人的 X 賬號(hào)上。在算力激增的背景下,英偉達(dá)的 GPU 成為了「硬通貨」。
夸張的是,甚至有海外初創(chuàng)企業(yè)開(kāi)始利用 GPU 進(jìn)行抵押融資,一家硅谷的創(chuàng)業(yè)公司使用 H100 拿到了 23 億美元的債務(wù)融資。
購(gòu)買(mǎi) H100 和 A100 的公司有三種。第一種,是需要超過(guò) 1000 張的公司,包括訓(xùn)練 LLM 的創(chuàng)業(yè)公司,如 OpenAI、Anthropic;云服務(wù)提供商,如谷歌云、AWS、騰訊云;其他大公司,如特斯拉。第二種,是需要超過(guò) 100 張的公司,也就是對(duì)開(kāi)源模型進(jìn)行大量微調(diào)的初創(chuàng)公司。第三種,需要 10 張的公司,就是大部分創(chuàng)業(yè)公司和開(kāi)源勢(shì)力,熱衷使用大模型的輸出微調(diào)小模型。
這些買(mǎi)家需要多少 GPU 呢?OpenAI 可能需要 5 萬(wàn)張、Inflection 要 2.2 萬(wàn)張、Meta 需要 2.5 萬(wàn)張、大型云廠商(Azure、GoogleCloud、AWS、Oracle),每家可能需要 3 萬(wàn)張,Lambda 和 CoreWeave 以及其他私有云可能總共需要 10 萬(wàn)張,Anthropic、Helsing、Mistral、Character,每家可能要 1 萬(wàn)張。
僅僅這幾家公司,就已經(jīng)需要 43.2 萬(wàn)張 H100,如果以每塊約 3.5 萬(wàn)美元計(jì)算,GPU 的價(jià)值約為 150 億美元。而這還沒(méi)有包括字節(jié)、百度、騰訊等國(guó)內(nèi)公司。
在 AI 大模型競(jìng)爭(zhēng)上,榜上有名的幾個(gè)國(guó)家:中國(guó)、美國(guó)、沙特阿拉伯、阿聯(lián)酋,都是英偉達(dá)的座上賓。
沙特阿拉伯已通過(guò)公共研究機(jī)構(gòu)阿卜杜拉國(guó)王科技大學(xué)(Kaust)購(gòu)買(mǎi)了至少 3000 塊英偉達(dá)的 H100 芯片。這些芯片將于 2023 年底全部交付,總價(jià)值約為 1.2 億美元,用于訓(xùn)練 AI 大模型。
阿聯(lián)酋也獲得了數(shù)千顆英偉達(dá)芯片的使用權(quán),并已推出自己的開(kāi)源大語(yǔ)言模型「Falcon40B」,「Falcon40B」使用了 384 個(gè) A100 芯片進(jìn)行訓(xùn)練。
GPU 的出貨量
英偉達(dá) H100 的出貨量也備受關(guān)注。研究機(jī)構(gòu) Omdia 披露,英偉達(dá)在 2023 年第二季度的 H100 出貨量為 900 噸。按照單片 H100GPU 的重量約為 3 千克,那么英偉達(dá)在二季度售出了約 30 萬(wàn)片 H100。
到了三季度,英偉達(dá)大約賣(mài)出了 50 萬(wàn)臺(tái) H100 和 A100 GPU。每家能夠分到的 GPU 數(shù)量有限,Meta 和微軟各自采購(gòu)了 15 萬(wàn)個(gè) H100GPU,谷歌、亞馬遜、甲骨文和騰訊則各采購(gòu)了 5 萬(wàn)片。
如此龐大的 GPU 需求量,導(dǎo)致基于 H100 的服務(wù)器需要 36~52 周的時(shí)間才能交付。按照英偉達(dá)官方的說(shuō)法,2024 年一季度之前的 GPU 芯片早已全部售罄。
業(yè)內(nèi)預(yù)估,明年英偉達(dá)的出貨量將達(dá)到 150 萬(wàn)-200 萬(wàn)顆。
2024,GPU 能降價(jià)嗎?
GPU 能否降價(jià),還要看明年的供需情況。上圖是 GPUUtils 列出的目前對(duì) GPU 市場(chǎng)供需變化最有直接影響的科技公司,包括了:開(kāi)發(fā)出 Chat-GPT 的 OpenAI、臺(tái)積電、微軟、Meta 以及成立僅僅一年便募得 13 億美元資金的 AI 新創(chuàng) Inflection。
買(mǎi)方
有的人不想買(mǎi)。谷歌、Meta 都覺(jué)得英偉達(dá)的 GPU 太貴了。
Meta 最近已經(jīng)宣布構(gòu)建了自己的 DLRM 推理芯片,并且得到廣泛部署。Meta 大大方方承認(rèn),自己即將發(fā)布的 AI 芯片并不能直接替代英偉達(dá)的芯片,但是自研芯片可以降低成本。
就算在谷歌 I/O 開(kāi)發(fā)者大會(huì)兩個(gè)小時(shí)的演講中,谷歌方面一直在贊賞英偉達(dá)的 H100GPU 芯片。這也不妨礙,谷歌開(kāi)始「騎驢找馬」,谷歌的云服務(wù)器上已經(jīng)用上了自家 TPU。
Google TPU v5e 于 2023 年 8 月發(fā)布,成為人工智能硬件領(lǐng)域的強(qiáng)大力量,專為大型語(yǔ)言模型和生成式人工智能量身定制。與前代產(chǎn)品相比,TPUv5e 的每美元訓(xùn)練性能顯著提高 2 倍,每美元推理性能顯著提高 2.5 倍,可大幅節(jié)省成本。其突破性的多片架構(gòu)可實(shí)現(xiàn)數(shù)萬(wàn)個(gè)芯片的無(wú)縫連接,突破了以往的限制,為處理海量人工智能任務(wù)開(kāi)辟了途徑。
有的人不能買(mǎi)。中國(guó)是英偉達(dá)的第三大市場(chǎng),占據(jù)其收入的 1/5 以上。隨著美國(guó)政府宣布進(jìn)一步禁止中國(guó)銷(xiāo)售英偉達(dá) H800 和 A800 芯片,賣(mài)不出去的 GPU,必然會(huì)對(duì)英偉達(dá)產(chǎn)生負(fù)面影響。
此外,明年 AI 或許迎來(lái)退潮。2023 年的 AI 熱潮,除了大模型震驚業(yè)界外,炒作的因素也不在少數(shù)。毫無(wú)疑問(wèn),ChatGPT 是 2023 年的世界頂流。因?yàn)樗?,OpenAI 網(wǎng)站的流量在 4 月份就超過(guò)了 18 億,進(jìn)入了全球流量排名前 20。然而,網(wǎng)絡(luò)分析公司 Similarweb 公布的數(shù)據(jù)顯示,在狂飆半年后,ChatGPT 的訪問(wèn)量首次出現(xiàn)負(fù)增長(zhǎng),6 月份的訪問(wèn)量環(huán)比下滑 9.7%。
在大模型創(chuàng)業(yè)狂飆 200 多天后,探索者們的心態(tài),從理想亢奮來(lái)到現(xiàn)實(shí)落地。大模型的維護(hù)依賴大量的高性能芯片,而單要建構(gòu)、維護(hù)生成式 AI 工具的成本就非常巨大。這對(duì)于大公司而言還好,但是對(duì)于許多組織與創(chuàng)作者而言,這卻是一筆難以負(fù)擔(dān)的支出。
對(duì)于生產(chǎn)式 AI,2024 年還會(huì)再次迎來(lái)大眾的檢驗(yàn)。行業(yè)分析師認(rèn)為,2023 年關(guān)于生成式人工智能的炒作非常大,AI 被過(guò)度吹捧,因?yàn)橄嚓P(guān)技術(shù)需要克服許多障礙才能將其推向市場(chǎng)。
退潮之后,能夠剩下的高性能 GPU 需求還能有多少?
賣(mài)方
我們先來(lái)看看英偉達(dá)這個(gè)最大的賣(mài)家。優(yōu)先關(guān)注兩個(gè)方面:能不能供應(yīng)足夠的 GPU,明年是否有新品刺激市場(chǎng)需求。
第一個(gè)供貨方面,眾所周知,英偉達(dá)只與臺(tái)積電合作生產(chǎn) H100,臺(tái)積電一共有 4 個(gè)生產(chǎn)節(jié)點(diǎn)是為 5nm 芯片提供產(chǎn)能:N5、N5P、N4、N4P。而 H100 只在 N5 或者是 N5P 的中的 4N 節(jié)點(diǎn)上生產(chǎn),這是一個(gè) 5nm 芯片的增強(qiáng)型節(jié)點(diǎn),同時(shí)英偉達(dá)還必須與蘋(píng)果、AMD 和高通共享這個(gè)節(jié)點(diǎn)的產(chǎn)能,至于 A100 顯卡則是在臺(tái)積電的 N7 生產(chǎn)線制作的。從短期的情況看,三星和英特爾都因?yàn)橹瞥碳夹g(shù)的問(wèn)題,無(wú)法替英偉達(dá)緩解供應(yīng)緊張的問(wèn)題。因此,預(yù)計(jì)明年市場(chǎng),英偉達(dá)的 GPU 供應(yīng)仍會(huì)緊缺。
第二個(gè)新品方面,英偉達(dá)在 2023 年 11 月底時(shí),發(fā)布了 H100 的下一代繼承者——H200。表示在處理 Llama2 等 LLM 時(shí),H200 的推理速度比 H100GPU 提高了近 2 倍。從 2024 年開(kāi)始,亞馬遜網(wǎng)絡(luò)服務(wù)、谷歌云、微軟 Azure 和甲骨文云基礎(chǔ)設(shè)施將成為首批部署基于 H200 實(shí)例的云服務(wù)提供商。盡管還沒(méi)有公布 H200 的價(jià)格,但一定比 H100 目前每臺(tái) 2.5 萬(wàn)美元至 4 萬(wàn)美元的價(jià)格更加昂貴。
從兩個(gè)方面看,英偉達(dá)的 GPU 供需還存在較大的不確定性。不過(guò)。賣(mài)家市場(chǎng),會(huì)有更多廠商加入。
明年 GPU 的另一大賣(mài)家,就是回過(guò)神來(lái)的 AMD。
從最近的財(cái)報(bào)來(lái)看,AMD 預(yù)計(jì)四季度 GPU 收入將達(dá)到 4 億美元,到 2024 年底將超過(guò) 10 億美元。其 CEO 蘇姿豐對(duì)明年充滿期待:「MI300 將成為自 2020 年后,銷(xiāo)售額達(dá)到 10 億美元最快的產(chǎn)品?!?/span>
2023 年 11 月,AMD 正式發(fā)布了對(duì)標(biāo) H100 的產(chǎn)品——MI300。據(jù) AMD 展示,由 8 塊 MI300X 組成的服務(wù)器在大模型推理方面的表現(xiàn),要比同樣規(guī)模的 H100 速度最高提升 1.6 倍之多。對(duì)于 AMD 來(lái)說(shuō),這種直接對(duì)標(biāo),實(shí)屬罕見(jiàn)。
有意思的是,Meta、微軟和 OpenAI 公司在 AMD 投資者活動(dòng)上表態(tài),未來(lái)他們將會(huì)使用 AMD 最新的人工智能(AI)芯片 InstinctMI300X。
不過(guò),英偉達(dá)對(duì) AMD 的對(duì)標(biāo)也態(tài)度強(qiáng)硬,官方發(fā)布博客,駁斥 AMD 的評(píng)測(cè)不客觀。英偉達(dá)表示,如果 H100GPU 使用了優(yōu)化過(guò)的軟件進(jìn)行正確的基準(zhǔn)測(cè)試,它的性能將大大超過(guò) MI300X。
由于 MI300 還未正式應(yīng)用,對(duì)于我們對(duì)于 AMD 和英偉達(dá)之間的「官司」很難分說(shuō),但不論如何,AMD 已經(jīng)走到了高性能 GPU 的起跑線。
總而言之,2024 年的 GPU 還充滿變數(shù)。在 AI 大模型冷靜后、在買(mǎi)家不想當(dāng)冤大頭后、在賣(mài)家越來(lái)越多后,GPU 還會(huì)維持天價(jià)嗎?相信各位看官心中自有答案。從市場(chǎng)的角度看,無(wú)論是當(dāng)下多先進(jìn)的技術(shù),到最后終將會(huì)越來(lái)越普世。就看 GPU 玩家們,在 2024 年如何進(jìn)攻戰(zhàn)場(chǎng)了。
評(píng)論