價格暴漲500%,HBM市場徹底被引爆
內存技術作為計算機系統(tǒng)的核心組成部分,其性能的提升對于整體計算能力的提升至關重要。在這個背景下,高帶寬內存(HBM)以其卓越的性能表現(xiàn),正逐漸在內存技術領域嶄露頭角,成為推動計算領域進入全新時代的關鍵力量。
本文引用地址:http://2s4d.com/article/202402/455655.htm相較于傳統(tǒng)的動態(tài)隨機存取內存(DRAM),HBM 的性能優(yōu)勢顯而易見。
遠遠超越 DDR
DDR 是一種常見的計算機內存類型,最早是為了提高內存?zhèn)鬏斔俾识O計的。它采用了雙倍數(shù)據(jù)傳輸技術,即在每個時鐘周期內可以傳輸兩次數(shù)據(jù),從而提高了數(shù)據(jù)傳輸速率。
目前最常見的 DDR 版本是 DDR4、DDR5,但在過去還有 DDR3、DDR2、DDR 等版本。每一代 DDR 版本都有不同的數(shù)據(jù)傳輸速率和性能。
DDR 內存通常用于計算機的系統(tǒng)內存,用于存儲操作系統(tǒng)和正在運行的應用程序等數(shù)據(jù)。
HBM 是一種高帶寬內存技術,專注于提供更高的內存帶寬,尤其適用于高性能計算和圖形處理領域。HBM 的一個顯著特點是,它使用了堆疊技術,將多個 DRAM 芯片垂直堆疊在一起,從而大大增加了數(shù)據(jù)通路,提高了內存的帶寬。
因此 HBM 具有可擴展更大容量的特性。不僅 HBM 的單層 DRAM 芯片容量可擴展,HBM 還可以通過 4 層、8 層以至 12 層堆疊的 DRAM 芯片,此外 HBM 可以通過 SiP 集成多個 HBM 疊層 DRAM 芯片等方法,實現(xiàn)更大的內存容量。
HBM 內存通常用于高性能顯卡、GPU 加速器以及需要大量數(shù)據(jù)傳輸?shù)母咝阅苡嬎銘弥小?/span>
從功耗角度來看,由于采用了 TSV 和微凸塊技術,DRAM 裸片與處理器間實現(xiàn)了較短的信號傳輸路徑以及較低的單引腳 I/O 速度和 I/O 電壓,使 HBM 具備更好的內存功耗能效特性。以 DDR3 存儲器歸一化單引腳 I/O 帶寬功耗比為基準,HBM2 的 I/O 功耗比明顯低于 DDR3、DDR4 和 GDDR5 存儲器,相對于 GDDR5 存儲器,HBM2 的單引腳 I/O 帶寬功耗比數(shù)值降低 42%。
在系統(tǒng)集成方面,HBM 將原本在 PCB 板上的 DDR 內存顆粒和 CPU 芯片全部集成到 SiP 里,因此 HBM 在節(jié)省產品空間方面也更具優(yōu)勢。相對于 GDDR5 存儲器,HBM2 節(jié)省了 94% 的芯片面積。
三大原廠的研發(fā)歷程
目前的 HBM 市場主要以 SK 海力士、三星和美光三家公司為主。
2014 年,SK 海力士與 AMD 聯(lián)合開發(fā)了全球首款硅通孔 HBM,至今已經迭代升級了 4 代 HBM 產品,性能和容量持續(xù)提升。2020 年 SK 海力士宣布成功研發(fā)新一代 HBM2E;2021 年開發(fā)出全球第一款 HBM3;2022 年 HBM3 芯片供貨英偉達。2023 年 8 月,SK 海力士推出 HBM3E,11 月英偉達宣布 H200 將搭載 HBM3E。
可以說從 HBM1、HBM2E、HBM3、HBM3E,SK 海力士持續(xù)領先。2022 年 SK 海力士占據(jù) HBM 市場約 50% 的份額,三星占比 40%,美光占比 10%。
在很長一段時間內,SK 海力士都是英偉達 HBM 的獨家供應商。2023 年 SK 海力士基本壟斷了 HBM3 供應,今年其 HBM3 與 HBM3E 的訂單也已售罄。
三星是在 2016 年,開始宣布量產 4GB/8GB HBM2 DRAM;2018 年,宣布量產第二代 8GB HBM2;2020 年,推出 16GB HBM2E 產品;2021 年,三星開發(fā)出具有 AI 處理能力的 HBM-PIM;雖然三星的路線圖顯示 2022 年 HBM3 技術已經量產,但實際上三星的 HBM3 在 2023 年底才正式完成驗證,這意味著在大量生產之前,市場還是由 SK 海力士壟斷。
再看美光,2020 年,美光宣布將開始提供 HBM2 內存/顯存;2021 年,HBM2E 產品上市。為了改善自己在 HBM 市場中的被動地位,美光選擇了直接跳過第四代 HBM 即 HBM3,直接升級到了第五代,即 HBM3E。隨后在 2023 年 9 月,美光宣布推出 HBM3 Gen2(即 HBM3E),后續(xù)表示計劃于 2024 年初開始大批量發(fā)貨 HBM3 Gen2 內存,同時透露英偉達是主要客戶之一。
HBM2e 過渡到 HBM3e
HBM 的概念的起飛與 AIGC 的火爆有直接關系。
AI 大模型的興起催生了海量算力需求,而數(shù)據(jù)處理量和傳輸速率大幅提升使得 AI 服務器對芯片內存容量和傳輸帶寬提出更高要求。HBM 具備高帶寬、高容量、低延時和低功耗優(yōu)勢,目前已逐步成為 AI 服務器中 GPU 的搭載標配。
目前,HBM 產品以 HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)、HBM3E(第五代)的順序開發(fā),最新的 HBM3E 是 HBM3 的擴展版本。

來源:山西證券
HBM 每一次更新迭代都會伴隨著處理速度的提高。引腳(Pin)數(shù)據(jù)傳輸速率為 1Gbps 的第一代 HBM,發(fā)展到其第五代產品 HBM3E,速率提高到了 8Gbps,即每秒可以處理 1.225TB 的數(shù)據(jù)。也就是說,下載一部長達 163 分鐘的全高清(Full-HD)電影(1TB)只需不到 1 秒鐘的時間。
當然,存儲器的容量也在不斷加大。HBM2E 的最大容量為 16GB,目前,三星正在利用 EUV 光刻機來制造 24GB 容量的 HBM3 芯片,此外 8 層、12 層堆疊可在 HBM3E 上實現(xiàn) 36GB(業(yè)界最大)的容量,比 HBM3 高出 50%。
此前 SK 海力士、美光均已宣布推出 HBM3E 芯片,皆可實現(xiàn)超過 1TB/s 的帶寬。
根據(jù) TrendForce 集邦咨詢調查顯示,2023 年 HBM 市場主流為 HBM2e,包含 NVIDIA A100/A800、AMD MI200 以及多數(shù) CSPs 自研加速芯片皆以此規(guī)格設計。同時,為順應 AI 加速器芯片需求演進,各原廠計劃于 2024 年推出新產品 HBM3e,預期 HBM3 與 HBM3e 將成為明年市場主流。
HBM3e 市場徹底被引爆
SK 海力士無疑是這波內存熱潮中的最大受益者,截至 2023 年 12 月 31 日,SK 海力士在 2023 財年和第四季度的營收取得了顯著增長。特別是其主力產品 DDR5 DRAM 和 HBM3,在這一年的收入較去年上漲了 4 倍以上。
英偉達和 AMD 的下一代人工智能 GPU 預計將主要搭載 HBM3 內存。例如,H100 是第一款支持 PCIe 5.0 標準的 GPU,也是第一款采用 HBM3 的 GPU,最多支持六顆 HBM3,帶寬為 3TB/s,是 A100 采用 HBM2E 的 1.5 倍,默認顯存容量為 80GB。
2023 年 11 月英偉達發(fā)布了新一代 AI GPU 芯片 H200,以及搭載這款 GPU 的 AI 服務器平臺 HGX H200 等產品。這款 GPU 是 H100 的升級款,依舊采用 Hopper 架構、臺積電 4nm 制程工藝,根據(jù)英偉達官網(wǎng),H200 的 GPU 芯片沒有升級,核心數(shù)、頻率沒有變化,主要的升級便是首次搭載 HBM3e 顯存,并且容量從 80GB 提升至 141GB。
得益于新升級的 HBM3e 芯片,H200 的顯存帶寬可達 4.8TB/s,比 H100 的 3.35TB/s 提升了 43%。不過這遠沒有達到 HBM3e 的上限,海外分析人士稱英偉達有意降低 HBM3e 的速度,以追求穩(wěn)定。如果與傳統(tǒng) x86 服務器相比,H200 的內存性能最高可達 110 倍。
由于美光、SK 海力士等公司的 HBM3e 芯片需等到 2024 年才會發(fā)貨,因此英偉達表示 H200 產品預計將在 2024 年第二季度正式開售。
AMD 的 MI300 也搭配 HBM3,其中,MI300A 容量與前一代相同為 128GB,更高端 MI300X 則達 192GB,提升了 50%。AMD 稱,MI300X 提供的 HBM 密度最高是英偉達 AI 芯片 H100 的 2.4 倍,其 HBM 帶寬最高是 H100 的 1.6 倍。這意味著,AMD 的芯片可以運行比英偉達芯片更大的模型。
與此同時,在 2023 年隨著 AI GPU 以及與 AI 相關的各類需求激增,HBM 價格也持續(xù)上漲。市場研究機構 Yolo Group 報告顯示,2023 年期間 HBM 內存供需鏈發(fā)生了重大變化,生產水平和采用率同時大幅提高,使得 HBM 成為比人工智能熱潮之前更有價值的資源,2023 年 HBM 芯片的平均售價是傳統(tǒng) DRAM 內存芯片的五倍。
在 HBM 盛行的當下,沒有一家存儲廠商能夠忍住不分一杯羹。
三大原廠為之「瘋狂」
技術升級
三大原廠的研究進展
SK 海力士在 SEMICON Korea 2024 上發(fā)布了一項重要公告,公布了其雄心勃勃的高帶寬存儲器路線圖。該公司副總裁 Kim Chun-hwan 透露,計劃在 2024 上半年開始量產先進的 HBM3E,并強調向客戶交付 8 層堆疊樣品。
HBM3E 是 SK 海力士產品線的最新產品,可滿足日益增長的數(shù)據(jù)帶寬需求,在 6 堆棧配置中,每堆棧可提供 1.2 TB/s 和驚人的 7.2 TB/s 通信帶寬。Kim Chun-hwan 將這種進步的緊迫性歸因于生成式人工智能的迅速崛起,預計將見證驚人的 35% 的復合年增長率(CAGR)。然而,他警告說,在不斷升級的客戶期望的推動下,半導體行業(yè)正在面臨「激烈的生存競爭」。
隨著制程工藝節(jié)點的縮小并接近其極限,半導體行業(yè)越來越關注下一代存儲器架構和工藝,以釋放更高的性能。SK 海力士已經啟動了 HBM4 的開發(fā),計劃于 2025 年提供樣品,并于次年量產。
根據(jù)美光的信息,與前幾代 HBM 相比,HBM4 將采用更廣泛的 2048 位接口。導致每個堆棧的理論峰值內存帶寬超過 1.5 TB/s。為了實現(xiàn)這些非凡的帶寬,在保持合理功耗的同時,HBM4 的目標是大約 6GT/s 的數(shù)據(jù)傳輸速率。這種更寬的接口和更快的速度將使 HBM4 能夠突破內存帶寬的界限,滿足日益增長的高性能計算和 AI 工作負載需求。
三星是半導體行業(yè)的主要參與者,該公司也有 HBM4 的發(fā)布時間表,計劃于 2025 年提供樣品,并于 2026 年量產。三星高管 Jaejune Kim 透露,該公司的 HBM 產量的一半以上已經由專業(yè)產品組成。定制 HBM 解決方案的趨勢預計將加劇。通過邏輯集成,量身定制的選項對于滿足個性化客戶需求至關重要,從而鞏固了市場地位。
隨著 HBM3E 的發(fā)布和 HBM4 的準備,SK 海力士和三星正在為未來的挑戰(zhàn)做準備,旨在保持其在 HBM 技術前沿的地位。不僅如此,全球前三大存儲芯片制造商正將更多產能轉移至生產 HBM,但由于調整產能需要時間,很難迅速增加 HBM 產量,預計未來兩年 HBM 供應仍將緊張。
擴產情況
再看三大原廠的擴產情況。據(jù)悉,SK 海力士將擴大其高帶寬內存生產設施投資,以應對高性能 AI 產品需求的增加。
去年 6 月有媒體報道稱,SK 海力士正在準備投資后段工藝設備,將擴建封裝 HBM3 的利川工廠,預計到今年年末,該廠后段工藝設備規(guī)模將增加近一倍。
此外,SK 海力士還將在美國印第安納州建造一座最先進的制造工廠,據(jù)兩位接受英國《金融時報》采訪的消息人士透露,SK 海力士將在這家工廠生產 HBM 堆棧,這些堆棧將用于臺積電生產的 Nvidia GPU,SK 集團董事長表示,該工廠預計耗資 220 億美元。
三星電子和 SK 海力士之間的競爭正在升溫。三星電子從去年第四季度開始擴大第四代 HBM 即 HBM3 的供應,目前正進入一個過渡期。負責三星美國半導體業(yè)務的執(zhí)行副總裁 Han Jin-man 在今年 1 月表示,公司對包括 HBM 系列在內的大容量存儲芯片寄予厚望,希望它能引領快速增長的人工智能芯片領域。他在 CES 2024 的媒體見面會上對記者說,「我們今年的 HBM 芯片產量將比去年提高 2.5 倍,明年還將繼續(xù)提高 2 倍?!?/span>
三星官方還透露,公司計劃在今年第四季度之前,將 HBM 的最高產量提高到每月 15 萬至 17 萬件,以此來爭奪 2024 年的 HBM 市場。此前三星電子斥資 105 億韓元收購了三星顯示位于韓國天安市的工廠和設備,以擴大 HBM 產能,同時還計劃投資 7000 億至 1 萬億韓元新建封裝線。
為了縮小差距,美光對其下一代產品 HBM3E 下了很大的賭注,美光首席執(zhí)行官 Sanjay Mehrotra 表示:「我們正處于為英偉達下一代 AI 加速器提供 HBM3E 的驗證的最后階段。」其計劃于 2024 年初開始大批量發(fā)貨 HBM3E 內存,同時強調其新產品受到了整個行業(yè)的極大興趣。據(jù)悉,美光科技位于中國臺灣地區(qū)的臺中四廠已于 2023 年 11 月初正式啟用。美光表示,臺中四廠將整合先進探測與封裝測試功能,量產 HBM3E 及其他產品,從而滿足人工智能、數(shù)據(jù)中心、邊緣計算及云端等各類應用日益增長的需求。該公司計劃于 2024 年初開始大量出貨 HBM3E。
值得注意的是高階 HBM 的競爭才剛剛開始,雖然目前 HBM 產品占整體存儲的出貨量仍然非常小,長期來看,隨著消費電子產品向 AI 化發(fā)展,對于高算力、高存儲、低能耗將是主要訴求方向,鑒于此預計 HBM 也將成為未來存儲廠商的技術發(fā)展方向。
評論