這一領(lǐng)域芯片,重度依賴臺(tái)積電
英特爾和三星正在研發(fā)先進(jìn)的制程節(jié)點(diǎn)和先進(jìn)的封裝技術(shù),但目前所有大型廠商都已 100% 依賴臺(tái)積電。
本文引用地址:http://2s4d.com/article/202506/471498.htm大型語言模型(例如 ChatGPT 等 LLM)正在推動(dòng)數(shù)據(jù)中心 AI 容量和性能的快速擴(kuò)展。更強(qiáng)大的 LLM 模型推動(dòng)了需求,并需要更多的計(jì)算能力。
AI 數(shù)據(jù)中心需要 GPU/AI 加速器、交換機(jī)、CPU、存儲(chǔ)和 DRAM。目前,大約一半的半導(dǎo)體用于 AI 數(shù)據(jù)中心。到 2030 年,這一比例將會(huì)更高。
臺(tái)積電在 AI 數(shù)據(jù)中心邏輯半導(dǎo)體領(lǐng)域幾乎占據(jù) 100% 的市場(chǎng)份額。臺(tái)積電生產(chǎn):
Nvidia GPU、NVLink 和 CPU。
AMD CPU 和 GPU。
英特爾 CPU。
適用于 Microsoft、Amazon、Google 和 Open AI 的 AI 加速器(與 Broadcom、Marvell、Alchip 和 Mediatek 共同設(shè)計(jì))。
Broadcom 和 Astera 交換機(jī)。
ASpeed 底板管理芯片。
臺(tái)積電唯一沒有生產(chǎn)的必需 AI 數(shù)據(jù)中心芯片是存儲(chǔ)器:HBM、DDR、閃存。
AI 數(shù)據(jù)中心芯片代工,為何青睞臺(tái)積電?
臺(tái)積電擁有 AI 數(shù)據(jù)中心必須具備的四大要素:
最先進(jìn)的工藝技術(shù)和產(chǎn)量。
最先進(jìn)的封裝技術(shù)和產(chǎn)量。
能夠快速將復(fù)雜的新產(chǎn)品提升至每月大批量生產(chǎn)。
擁有提前數(shù)年開發(fā)并批量交付的財(cái)務(wù)實(shí)力。
先進(jìn)制程技術(shù):AI 數(shù)據(jù)中心芯片,尤其是 AI 加速器,需要最先進(jìn)的制程技術(shù)才能在芯片上集成最多的晶體管。像格芯這樣的代工廠,目前無力承擔(dān)先進(jìn) FinFET 節(jié)點(diǎn)的開發(fā)資金。目前只有英特爾、三星和臺(tái)積電擁有 2 納米及以下制程技術(shù)和路線圖。
先進(jìn)的封裝技術(shù): LLM 模型的規(guī)模呈指數(shù)級(jí)增長(zhǎng),即使采用最先進(jìn)的工藝節(jié)點(diǎn)和最大的光罩尺寸,單個(gè) GPU 芯片也無法處理該模型。運(yùn)行 LLM 模型需要多個(gè) GPU/AI 加速器。對(duì)于多芯片系統(tǒng),瓶頸在于芯片間的數(shù)據(jù)速率。使用 200 Gb/s 銅互連的芯片間數(shù)據(jù)速率與片上數(shù)據(jù)速率相比非常非常慢。
解決方案是采用先進(jìn)的封裝技術(shù),將多個(gè) GPU 芯片和 HBM 內(nèi)存集成在多光罩基板上,并通過極快的芯片間數(shù)據(jù)傳輸,打造 GPU 計(jì)算組件。臺(tái)積電始終領(lǐng)先于客戶需求,持續(xù)研發(fā)。未來 AI 加速器將采用共封裝光通信技術(shù),取代銅連接。臺(tái)積電于 2024 年宣布推出 COUPE 工藝,用于將光學(xué)引擎集成到先進(jìn)的封裝中。英偉達(dá)今年早些時(shí)候宣布推出首款采用該技術(shù)的橫向擴(kuò)展交換機(jī)。
圖 2:HBM、多個(gè) AI 芯片、電壓調(diào)節(jié)器和 CPO 集成在一個(gè)封裝中。來源:臺(tái)積電
為了確保良率和產(chǎn)能提升,先進(jìn)封裝中的所有芯片都必須由臺(tái)積電代工。唯一非臺(tái)積電代工的芯片是 DRAM 內(nèi)存和無源芯片。
臺(tái)積電早在幾年前就開始開發(fā)多芯片基板封裝,當(dāng)時(shí) HBM 開始被 GPU 采用,并且不斷提升其產(chǎn)品的尺寸和復(fù)雜性。他們最近宣布了一種晶圓尺寸的基板:
圖 3:更大的基板通過更快的芯片間數(shù)據(jù)傳輸速率提高了計(jì)算速度。來源:臺(tái)積電
產(chǎn)能上,臺(tái)積電擁有全球最先進(jìn)的制程和封裝技術(shù)產(chǎn)能,其中美國(guó)占有相當(dāng)大且不斷增長(zhǎng)的份額。
2024 年第四季度,臺(tái)積電在全球晶圓代工市場(chǎng)的份額達(dá)到 67%,較 2023 年初增長(zhǎng)約 10%。三星的份額為 11%。英特爾則被歸類為「其他」。臺(tái)積電在先進(jìn)制程晶圓代工領(lǐng)域的份額要高得多。
臺(tái)積電正在增加其在美國(guó)最先進(jìn)節(jié)點(diǎn)的產(chǎn)能比例。該公司計(jì)劃在亞利桑那州生產(chǎn) N2 和 A16 節(jié)點(diǎn),目標(biāo)是使這些節(jié)點(diǎn)總產(chǎn)量的約三分之一來自美國(guó)。該公司將繼續(xù)先在中國(guó)臺(tái)灣開發(fā)最先進(jìn)節(jié)點(diǎn)。
摩根士丹利估計(jì),到 2026 年,臺(tái)積電將占據(jù)全球 90% 的 CoWoS(先進(jìn)封裝)產(chǎn)能,其余產(chǎn)能將由安靠(Amkor)、聯(lián)華電子(UMC)和日月光(ASE)占據(jù),英特爾和三星的數(shù)據(jù)未提及。臺(tái)積電在美國(guó)也擁有大量且不斷增長(zhǎng)的先進(jìn)封裝產(chǎn)能。
當(dāng) Nvidia、亞馬遜或谷歌需要 AI 加速器時(shí),它們不僅需要先進(jìn)的工藝和先進(jìn)的封裝,還需要臺(tái)積電的產(chǎn)能和可預(yù)測(cè)性,以確保它們能夠快速提升產(chǎn)能并填滿其數(shù)據(jù)中心。臺(tái)積電已經(jīng)向蘋果證明了,它們能夠快速可靠地大規(guī)模生產(chǎn)多個(gè)復(fù)雜芯片。
財(cái)務(wù)實(shí)力上,臺(tái)積電的市值接近 1 萬億美元,資產(chǎn)負(fù)債表非常強(qiáng)勁。他們的最終客戶是開發(fā)和提供前沿 LLM 的公司:微軟、亞馬遜、谷歌、OpenAI,這些公司都是市值達(dá)到萬億美元的公司(或有望達(dá)到萬億美元)。他們希望選擇規(guī)模龐大、可靠且財(cái)力雄厚的供應(yīng)商。
歸根結(jié)底,臺(tái)積電最大的競(jìng)爭(zhēng)優(yōu)勢(shì)在于其管理實(shí)力與深度,以及其運(yùn)營(yíng)公司的系統(tǒng)/流程。臺(tái)積電能夠處理分布在多個(gè)國(guó)家的數(shù)十家晶圓廠的極其復(fù)雜的技術(shù)問題。他們的連續(xù)性是關(guān)鍵因素。
到 2030 年,GPU/LLM/HyperScalers 可能會(huì)成為臺(tái)積電的主要客戶。
如今,數(shù)據(jù)中心的絕大部分 AI 計(jì)算都基于 Nvidia,而 Nvidia 是臺(tái)積電最大的客戶之一。
AMD 目前的市場(chǎng)份額較小,但其 GPU 產(chǎn)品正在追趕 Nvidia;AMD 在擴(kuò)展網(wǎng)絡(luò)和軟件方面仍有待改進(jìn),但看來他們的市場(chǎng)份額有望提升??蛻粝M麚碛懈噙x擇,因此他們?cè)敢饨o AMD 一個(gè)機(jī)會(huì)。6 月 12 日舉行的 Advancing AI AMD 活動(dòng)展示了多家主要廠商使用 AMD AI 來支持其模型,并取得了良好的效果。
AMD 首席執(zhí)行官蘇姿豐 (Lisa Su) 預(yù)測(cè),數(shù)據(jù)中心 AI 加速器的潛在市場(chǎng)規(guī)模 (TAM) 將以每年 60% 以上的速度增長(zhǎng),到 2028 年將超過 5000 億美元!推理和訓(xùn)練的配置比例正在快速變化。2025 年,兩者的比例約為 50/50,但到 2028 年,推理將占 TAM 的 70%。預(yù)計(jì)到 2030 年,整個(gè)半導(dǎo)體市場(chǎng)將達(dá)到 1 萬億美元,因此 AI 數(shù)據(jù)中心正在成為市場(chǎng)的主力。
GPU 非常靈活。它們可以進(jìn)行訓(xùn)練和推理。但它們價(jià)格昂貴。
四大云服務(wù)提供商(CSP)購(gòu)買了英偉達(dá)約一半的產(chǎn)出,每家每年約合 200 億美元。如果市場(chǎng)增長(zhǎng)速度達(dá)到 Lisa 和 Jensen 的預(yù)測(cè),那么四大云服務(wù)提供商每年將購(gòu)買近 1000 億美元的 GPU。
這意味著最大的超大規(guī)模計(jì)算公司和 LLM 公司擁有設(shè)計(jì)自有芯片的規(guī)模。他們?cè)O(shè)計(jì)自己的模型,因此他們確切地知道需要什么硬件,并且可以構(gòu)建更便宜的加速器,部分原因是他們可以省去不需要的硬件,部分原因是他們可以與利潤(rùn)率更低的供應(yīng)商合作,甚至直接與臺(tái)積電合作。(他們?nèi)匀恍枰獮槟切?Nvidia/AMD 設(shè)計(jì)模型的云客戶提供 GPU)。
近十年來,亞馬遜和谷歌一直在設(shè)計(jì)各自的 AI 加速器。谷歌的第一篇 TPU 論文發(fā)表于 2017 年。亞馬遜于 2015 年收購(gòu)了 Annapurna Labs:該團(tuán)隊(duì)設(shè)計(jì)了多代 Inferentia 和 Trainium AI 加速器。亞馬遜是臺(tái)積電十大客戶之一。
現(xiàn)在,所有主要的超大規(guī)模計(jì)算公司/LLM 都在構(gòu)建自己的 AI 加速器,包括微軟 Maia、Meta MTIA,以及廣為傳聞的 OpenAI 和 xAI 的 AI 加速器項(xiàng)目。(唯一的例外是 Anthropic,它正在使用亞馬遜的芯片。)如今,這些公司正在與博通、Marvell、Alchip 以及其他能夠設(shè)計(jì) 2nm 或更低工藝、采用先進(jìn)封裝和高速 PHY 芯片的公司合作。與亞馬遜一樣,一些超大規(guī)模計(jì)算公司/LLM 可能會(huì)決定收購(gòu)現(xiàn)有廠商,進(jìn)行整合,然后直接與臺(tái)積電進(jìn)行流片。
未來難以預(yù)測(cè),但 2030 年最有可能的情況是,英偉達(dá)仍將是市場(chǎng)領(lǐng)導(dǎo)者,AMD 的份額將遠(yuǎn)超現(xiàn)在,而大型超大規(guī)模計(jì)算廠商/LLM 廠商的定制 AI 加速器占據(jù)了相當(dāng)大的市場(chǎng)份額,亞馬遜、微軟、谷歌、Meta 以及為其生產(chǎn)芯片的 ASIC 公司可能各占 10% 的份額。這意味著到 2030 年,臺(tái)積電的六大客戶將是數(shù)據(jù)中心 AI 提供商。
臺(tái)積電將在 2030 年代繼續(xù)保持 AI 代工廠的主導(dǎo)地位
超大規(guī)模/LLM 公司希望降低成本,但首先他們必須確保以高可靠性獲得所需的大量 AI 加速器。
英特爾和三星正在研發(fā)先進(jìn)的制程節(jié)點(diǎn)和先進(jìn)的封裝技術(shù),但目前所有大型廠商都已 100% 依賴臺(tái)積電。芯片公司將積極評(píng)估和考慮英特爾和三星,因?yàn)槊總€(gè)人都希望擁有更多選擇,但臺(tái)積電的多重優(yōu)勢(shì)將難以在短期內(nèi)被英特爾和三星超越。
評(píng)論