博客專欄

EEPW首頁 > 博客 > 四年賣出500萬個H100,AI吞噬全球電量

四年賣出500萬個H100,AI吞噬全球電量

發(fā)布人:旺材芯片 時間:2024-03-17 來源:工程師 發(fā)布文章

對人工智能集群的需求激增導致人們對數(shù)據(jù)中心容量的關注激增,這給電網(wǎng)、發(fā)電能力和環(huán)境帶來了極大的壓力。人工智能的建設受到數(shù)據(jù)中心容量缺乏的嚴重限制,特別是在訓練方面,因為 GPU 通常需要位于同一位置以實現(xiàn)高速芯片到芯片網(wǎng)絡。推理的部署受到各個地區(qū)的總容量以及即將上市的更好模型的嚴重限制。


關于瓶頸在哪里有很多討論——額外的電力需求有多大?GPU 部署在哪里?北美、日本、臺灣、新加坡、馬來西亞、韓國、中國、印度尼西亞、卡塔爾、沙特阿拉伯和科威特等地區(qū)的數(shù)據(jù)中心建設進展如何?加速器的增長何時會受到物理基礎設施的限制?是變壓器、發(fā)電機、電網(wǎng)容量還是我們跟蹤的其他 15 個數(shù)據(jù)中心組件類別之一?需要多少資本支出?哪些超大規(guī)模企業(yè)和大公司正在競相確保足夠的容量,哪些將因為沒有數(shù)據(jù)中心容量而措手不及而受到嚴重限制?未來幾年,千兆瓦級和更大的訓練集群將建在哪里?天然氣、太陽能和風能等發(fā)電類型的組合是什么?這是否可持續(xù),或者人工智能的發(fā)展會破壞環(huán)境嗎?


許多人對數(shù)據(jù)中心建設速度提出了荒謬的假設。甚至埃隆·馬斯克也發(fā)表了看法,但他的評估并不完全準確。


他表示,上線的人工智能計算似乎每六個月就會增加 10 倍……然后,很容易預測下一個短缺將是降壓變壓器。你必須為這些東西提供能量。如果公用設施輸出 100-300 千伏電壓,并且必須一路降壓至 6 伏,那么降壓幅度就很大。我的不太好笑的笑話是,你需要變壓器來運行變壓器……那么,下一個短缺將是電力。他們將無法找到足夠的電力來運行所有芯片。我想明年,你會發(fā)現(xiàn)他們找不到足夠的電力來運行所有芯片。


需要明確的是,他對物理基礎設施的這些限制的看法基本上是正確的,但計算量并不是每六個月就會增長 10 倍——我們跟蹤所有主要超大規(guī)模和商業(yè)硅公司的 CoWoS、HBM 和服務器供應鏈,并看到測量的總 AI 計算能力自 2023 年第 1 季度以來,理論峰值 FP8 FLOPS 一直以季度環(huán)比 50-60% 的速度快速增長。換而顏值,在六個月內(nèi)增長遠未達到 10 倍,這是因為CoWoS 和 HBM 的增長速度根本不夠快。


圖片


由transformer驅動的生成式人工智能的繁榮確實需要大量的變壓器、發(fā)電機和無數(shù)其他電氣和冷卻部件。


許多粗略的猜測或直接危言聳聽的敘述都是基于過時的研究。IEA 最近的《電力 2024》報告指出,到 2026 年,人工智能數(shù)據(jù)中心的電力需求將達到 90 太瓦時 (TWh),相當于約 10 吉瓦 (GW) 的數(shù)據(jù)中心關鍵 IT 電力容量,或相當于 730 萬臺 H100。我們估計,從 2021 年到 2024 年底,僅 Nvidia 就將交付滿足 500 萬臺以上 H100 功率需求的加速器(事實上,主要是 H100 的出貨量),并且我們預計到 2025 年初,AI 數(shù)據(jù)中心容量需求將超過 10 GW。


圖片


上面的報告低估了數(shù)據(jù)中心的電力需求,但也有很多高估的地方——一些來自危言聳聽陣營的人回收了在加速計算廣泛采用之前寫的舊論文,這些論文指出了最壞的情況,即數(shù)據(jù)中心消耗大量電力。到 2030 年,發(fā)電量將達到 7,933 TWh,占全球發(fā)電量的 24%!


圖片


其中許多粗略估計都是基于全球互聯(lián)網(wǎng)協(xié)議流量增長估計的函數(shù),以及因效率增益而抑制的每單位流量使用功率的估計——所有數(shù)字都極難估計,而其他數(shù)字則采用自上而下的方法在前人工智能時代創(chuàng)建的數(shù)據(jù)中心功耗估算。麥肯錫的估計也很糟糕,這幾乎相當于把手指放在隨機的復合年增長率上,然后用精美的圖形重復它。


讓我們糾正這里的敘述,并用經(jīng)驗數(shù)據(jù)來量化數(shù)據(jù)中心的電力緊縮。


我們的方法通過對北美現(xiàn)有托管和超大規(guī)模數(shù)據(jù)中心的 1,100 多個數(shù)據(jù)中心進行分析來預測人工智能數(shù)據(jù)中心的需求和供應,包括正在開發(fā)的數(shù)據(jù)中心的建設進度預測,并且首次針對此類類型的研究,我們將其結合起來數(shù)據(jù)庫包含源自, 我們的 AI 加速器模型的 AI 加速器電力需求,用于估計 AI 和非 AI 數(shù)據(jù)中心關鍵 IT 電力需求和供應。我們還將這一分析與Structure ResearchStructure Research整理的北美以外地區(qū)(亞太地區(qū)、中國、歐洲、中東和非洲、拉丁美洲)的區(qū)域總體估計相結合,以提供數(shù)據(jù)中心趨勢的整體全球視圖。我們通過跟蹤各個集群來補充區(qū)域估計,并根據(jù)衛(wèi)星圖像和施工進度進行建設,例如位于新加坡以北幾英里的馬來西亞新山(主要由中國公司)的高達 1,000 兆瓦的開發(fā)管道。


這種跟蹤是由超大規(guī)模企業(yè)完成的,很明顯,從中期來看,人工智能領域的一些最大的參與者將在可部署的人工智能計算方面落后于其他參與者。


人工智能的繁榮確實會迅速加速數(shù)據(jù)中心能耗的增長,但短期內(nèi)全球數(shù)據(jù)中心的用電量仍將遠低于占總發(fā)電量24%的末日情景。我們相信,到 2030 年,人工智能將推動數(shù)據(jù)中心使用全球能源發(fā)電量的 4.5%。


圖片


真正的人工智能需求


未來幾年,數(shù)據(jù)中心電力容量增長將從 12-15% 的復合年增長率加速至 25% 的復合年增長率。全球數(shù)據(jù)中心關鍵 IT 電力需求將從 2023 年的 49 吉瓦 (GW) 激增至 2026 年的 96 吉瓦,其中人工智能將消耗約 40 吉瓦。事實上,擴建并不是那么順利,真正的電力緊縮即將到來。


圖片


對豐富、廉價電力的需求,以及快速增加電網(wǎng)容量的同時仍滿足超大規(guī)模企業(yè)的碳排放承諾,再加上芯片出口限制,將限制能夠滿足人工智能數(shù)據(jù)中心需求激增的地區(qū)和國家。


美國等一些國家和地區(qū)將能夠以低電網(wǎng)碳強度、供應穩(wěn)定的低成本燃料來源靈活應對,而歐洲等其他國家和地區(qū)將受到地緣政治現(xiàn)實和電力結構性監(jiān)管限制的有效束縛。其他人只會簡單地增加容量,而不關心環(huán)境影響。


訓練和推理的關鍵需求


人工智能訓練工作負載具有獨特的要求,與現(xiàn)有數(shù)據(jù)中心部署的典型硬件的要求非常不同。


首先,模型訓練數(shù)周或數(shù)月,網(wǎng)絡連接要求相對限于訓練數(shù)據(jù)進入。訓練對延遲不敏感,并且不需要靠近任何主要人口中心。人工智能訓練集群基本上可以部署在世界上任何具有經(jīng)濟意義的地方,但須遵守數(shù)據(jù)駐留和合規(guī)性法規(guī)。


要記住的第二個主要區(qū)別也有些明顯——人工智能訓練工作負載非常耗電,并且與傳統(tǒng)的非加速超大規(guī)模或企業(yè)工作負載相比,運行人工智能硬件的功率水平往往更接近其熱設計功耗 (TDP)。此外,雖然 CPU 和存儲服務器的功耗約為 1kW,但每個 AI 服務器的功耗現(xiàn)在已超過 10kW。再加上對延遲的不敏感以及靠近人口中心的重要性降低,這意味著提供大量廉價電力(以及未來 - 訪問任何電網(wǎng)供應)對于人工智能培訓工作負載的相對重要性要高得多與傳統(tǒng)工作負載相比。順便說一句,其中一些是無用的加密貨幣挖礦作業(yè)所共有的要求,而單個站點沒有超過 100 兆瓦的擴展優(yōu)勢。


另一方面,推理最終的工作量比訓練更大,但它也可以相當分散。芯片不需要位于中心位置,但其龐大的體積將非常出色。


數(shù)據(jù)中心數(shù)學


AI加速器具有較高的利用率(就功耗而言,而不是MFU)。每臺 DGX H100 服務器正常運行時的預期平均功率 (EAP) 約為 10,200 W,每臺服務器 8 個 GPU 的每一個 GPU 的功率為 1,275 W。其中包括 H100 本身的 700W 熱設計功耗 (TDP),以及雙 Intel Xeon Platinum 8480C 處理器的約 575W(分配給每個 GPU)以及 2TB DDR5 內(nèi)存、NVSwitches、NVLink、NIC、重定時器、網(wǎng)絡收發(fā)器等加上整個 SuperPOD 的存儲和管理服務器以及各種網(wǎng)絡交換機的電力需求,我們的有效電力需求為每臺 DGX 服務器 11,112W 或每臺 H100 GPU 1,389W。與我們考慮的 HGX H100 相比,DGX H100 配置在存儲和其他項目方面有些過度配置。像 Meta 這樣的公司已經(jīng)發(fā)布了有關其完整配置的足夠信息,以估計系統(tǒng)級功耗。


圖片


關鍵 IT 電源定義為數(shù)據(jù)中心樓層可用于服務器機架內(nèi)的計算、服務器和網(wǎng)絡設備的可用電力容量。它不包括數(shù)據(jù)中心運行冷卻、電力輸送和其他設施相關系統(tǒng)所需的電力。要計算本示例中需要構建或購買的關鍵 IT 電源容量,請將已部署 IT 設備的總預期電源負載相加。在下面的示例中,20,480 個 GPU(每個 GPU 功率為 1,389W)相當于所需的關鍵 IT 功率為 28.4 MW。


為了獲得 IT 設備預計消耗的總功率(消耗的關鍵 IT 功率),我們需要應用相對于所需的關鍵 IT 功率的可能利用率。這一因素說明了 IT 設備通常不會以其設計能力 100% 運行,并且可能無法在 24 小時內(nèi)得到相同程度的利用。在本例中,該比例設置為 80%。


除了關鍵 IT 電力消耗之外,運營商還必須提供冷卻電力,以彌補配電損耗、照明和其他非 IT 設施設備。業(yè)界通過電力使用效率(PUE)來衡量數(shù)據(jù)中心的能源效率。計算方法是將進入數(shù)據(jù)中心的總電量除以運行數(shù)據(jù)中心內(nèi) IT 設備所用的電量。這當然是一個非常有缺陷的指標,因為服務器內(nèi)的冷卻被視為“IT 設備”。我們通過將消耗的關鍵 IT 功耗乘以電源使用效率 (PUE) 來解釋這一點。PUE 較低表示數(shù)據(jù)中心能效更高,PUE 為 1.0 表示數(shù)據(jù)中心非常高效,沒有冷卻或任何非 IT 設備的功耗。典型的企業(yè)托管 PUE 約為 1.5-1.6,而大多數(shù)超大規(guī)模數(shù)據(jù)中心的 PUE 低于 1.4,一些專用構建設施(例如 Google 的)聲稱可以實現(xiàn)低于 1.10 的 PUE。大多數(shù) AI 數(shù)據(jù)中心規(guī)格的目標是低于 1.3 PUE。過去 10 年,全行業(yè)平均 PUE 下降,從 2010 年的 2.20 下降到 2022 年估計的 1.55,這是節(jié)能的最大推動因素之一,并有助于避免數(shù)據(jù)中心功耗的失控增長。


例如,在利用率為 80% 且 PUE 為 1.25 的情況下,擁有 20,480 個 GPU 集群的理論數(shù)據(jù)中心平均將從電網(wǎng)獲取 28-29MW 電力,每年總計 249,185 兆瓦時,這將花費 2070 萬美元每年電力美元,基于美國每千瓦時 0.083 美元的平均電價。


圖片


數(shù)據(jù)中心布局和限制


雖然 DGX H100 服務器需要 10.2 千瓦 (kW) 的 IT 電源,但大多數(shù)托管數(shù)據(jù)中心仍然只能支持每個機架約 12 千瓦的電源容量,盡管典型的超大規(guī)模數(shù)據(jù)中心可以提供更高的電源容量。


圖片


因此,服務器部署將根據(jù)可用的電源和冷卻能力而有所不同,在電源/冷卻受限的地方僅部署 2-3 臺 DGX H100 服務器,并且整排機架空間閑置,以將電力傳輸密度從 12 kW 翻倍至 24 kW。托管數(shù)據(jù)中心。實施此間隔也是為了解決冷卻超額訂購問題。


圖片


隨著數(shù)據(jù)中心的設計越來越考慮人工智能工作負載,機架將能夠通過使用專用設備增加氣流來利用空氣冷卻來實現(xiàn) 30-40kW+ 的功率密度。未來使用直接芯片液體冷卻為更高的功率密度打開了大門,通過消除風扇 功率的使用,可以將每個機架的功耗降低 10%,并通過減少或消除對環(huán)境的需求,將 PUE 降低 0.2-0.3空氣冷卻,雖然 PUE 已經(jīng)在 1.25 左右,但這將是最后一波有意義的 PUE 增益。


圖片


許多運營商提出的另一個重要考慮因素是,各個 GPU 服務器節(jié)點最好彼此靠近,以實現(xiàn)可接受的成本和延遲。根據(jù)經(jīng)驗,同一集群中的機架距離網(wǎng)絡核心最多應為 30 米。與昂貴的單模光收發(fā)器相比,短距離可實現(xiàn)更低成本的多模光收發(fā)器,單模光收發(fā)器通??梢赃_到數(shù)公里的距離。Nvidia 通常使用特定的多模光收發(fā)器將 GPU 連接到葉子交換機(leaf switches),其短距離可達 50m。使用更長的光纜和更長距離的收發(fā)器來容納更遠的 GPU 機架會增加成本,因為需要更昂貴的收發(fā)器。未來利用其他擴展網(wǎng)絡技術的 GPU 集群也將需要非常短的電纜才能正常工作。例如,在Nvidia 尚未部署的 H100 集群的 NVLink 擴展網(wǎng)絡中,該網(wǎng)絡支持跨 32 個節(jié)點的多達 256 個 GPU 的集群,并且可以提供 57.6 TB/s 的全對全帶寬,最大切換到開關電纜長度為 20 米。


圖片


每個機架功率密度更高的趨勢更多地是由網(wǎng)絡、計算效率和每次計算成本考慮因素推動的——就數(shù)據(jù)中心規(guī)劃而言,因為占地面積和數(shù)據(jù)大廳空間效率的成本通常是事后才考慮的。大約 90% 的托管數(shù)據(jù)中心成本來自電力,10% 來自物理空間。


安裝IT設備的數(shù)據(jù)大廳通常只占數(shù)據(jù)中心總建筑面積的30-40%左右,因此設計一個大30%的數(shù)據(jù)大廳只需要整個數(shù)據(jù)中心的總建筑面積增加10%??紤]到80% 的 GPU 擁有成本來自資本成本80% ,其中, 20% 與托管相關(這會增加托管數(shù)據(jù)中心成本),因此額外空間的成本僅占 AI 總擁有成本的 2%-3%。


大多數(shù)現(xiàn)有托管數(shù)據(jù)中心尚未準備好支持每機架 20kW 以上的機架密度。芯片生產(chǎn)限制將在 2024 年顯著改善,但某些超大規(guī)模和托管服務直接陷入數(shù)據(jù)中心容量瓶頸,因為它們在人工智能方面措手不及——尤其是在托管數(shù)據(jù)中心內(nèi),以及功率密度不匹配——其中 12-傳統(tǒng)托管中的15kW功率將成為實現(xiàn)AI超級集群理想物理密度的障礙。


后門熱交換器和直接芯片液體冷卻解決方案可以部署在新建的數(shù)據(jù)中心中,以解決功率密度問題。然而,從頭開始設計一個包含這些解決方案的新設施比改造現(xiàn)有設施要容易得多——意識到這一點,Meta 已停止開發(fā)計劃中的數(shù)據(jù)中心項目,將其重新調(diào)整為專門針對人工智能工作負載的數(shù)據(jù)中心。


就所有超大規(guī)模數(shù)據(jù)中心的功率密度而言,Meta 的數(shù)據(jù)中心設計是最差的,但它們很快就醒悟并轉變了。改造現(xiàn)有數(shù)據(jù)中心成本高昂、耗時,在某些情況下甚至可能不可能——可能沒有物理空間來安裝額外的 2-3 MW 發(fā)電機、不間斷電源 (UPS)、開關設備或額外的變壓器,并且重新設計管道以適應直接芯片液體冷卻所需的冷卻分配單元(CDU)并不理想。


圖片


人工智能需求與當前數(shù)據(jù)中心容量


使用基于我們的AI 加速器模型的加速器芯片的逐行單位出貨量預測以及我們估計的芯片規(guī)格和建模的輔助設備功率需求,我們計算了未來幾年的 AI 數(shù)據(jù)中心關鍵 IT 功率總需求。


圖片


如上所述,數(shù)據(jù)中心關鍵 IT 電力總需求將從 2023 年的約 49 吉瓦翻倍至 2026 年的 96 吉瓦,其中 90% 的增長來自人工智能相關需求。這純粹是出于芯片需求,但物理數(shù)據(jù)中心卻講述了不同的故事。


在美國,這種影響最為明顯,我們的衛(wèi)星數(shù)據(jù)顯示,大多數(shù)人工智能集群正在部署和規(guī)劃中,這意味著美國數(shù)據(jù)中心關鍵 IT 容量從 2023 年到 2027 年將需要增加兩倍。


圖片


主要人工智能云推出加速器芯片的積極計劃凸顯了這一點。OpenAI計劃在其最大的多站點訓練集群中部署數(shù)十萬個 GPU,這需要數(shù)百兆瓦的關鍵 IT 電源。通過查看物理基礎設施、發(fā)電機和蒸發(fā)塔的建設,我們可以非常準確地跟蹤它們的集群規(guī)模。Meta 預計到今年年底 H100 的安裝量將達到 650,000 臺。GPU 云提供商 CoreWeave 制定了在德克薩斯州普萊諾工廠投資 1.6B 美元的宏偉計劃。這意味著計劃斥資建設高達 50MW 的關鍵 IT 電源,并僅在該工廠安裝 30,000-40,000 個 GPU,并為整個公司提供清晰的路徑250MW 的數(shù)據(jù)中心占地面積(相當于 18 萬個 H100),并且他們計劃在單個站點中建設數(shù)百兆瓦的數(shù)據(jù)中心。


Microsoft 擁有人工智能時代之前最大的數(shù)據(jù)中心建設管道,他們也一直在吞噬一切可以利用的托管空間,并積極增加數(shù)據(jù)中心的擴建。像亞馬遜這樣的人工智能落后者已經(jīng)發(fā)布了關于總裝機容量為 1,000MW 的核動力數(shù)據(jù)中心的新聞稿,但需要明確的是,他們在實際的近期建設方面嚴重落后,因為他們是最后一個意識到人工智能的超大規(guī)模企業(yè)。谷歌和微軟/OpenAI 都計劃開發(fā)超過千兆瓦級的訓練集群。


圖片


從供應角度來看,賣方一致估計 Nvidia 在 2024 年出貨 300 萬個以上 GPU 將對應超過 4,200 MW 的數(shù)據(jù)中心需求,接近當前全球數(shù)據(jù)中心容量的 10%,僅相當于一年的 GPU 出貨量。當然,對英偉達出貨量的普遍估計也是非常錯誤的。忽略這一點,人工智能只會在接下來的幾年中增長,而 Nvidia 的 GPU 預計會變得更加耗電,路線圖上有 1,000W、1,200W 和 1,500W GPU。Nvidia 并不是唯一一家生產(chǎn)加速器的公司,谷歌也在迅速提高定制加速器的產(chǎn)量。展望未來,Meta 和亞馬遜還將加大其內(nèi)部加速器的力度。


全球頂級超大規(guī)模企業(yè)并沒有忽視這一現(xiàn)實——他們正在迅速加大數(shù)據(jù)中心建設和主機托管租賃力度。AWS 實際上以 6.5 億美元購買了一個 1000MW核動力數(shù)據(jù)中心園區(qū)。盡管只有第一座容量為 48MW 的建筑可能會在短期內(nèi)上線,但這為 AWS 提供了寶貴的數(shù)據(jù)中心容量管道,而無需等待發(fā)電或電網(wǎng)傳輸容量。我們認為,如此龐大的園區(qū)需要很多年才能完全達到承諾的 1,000 兆瓦關鍵 IT 電力。


人工智能訓練和推理的碳和電力成本


了解訓練流行模型的功率要求可以幫助衡量功率需求以及了解人工智能行業(yè)產(chǎn)生的碳排放。的碳足跡,175B 參數(shù)語言模型 檢查了在法國 CNRS 旗下 IDRIS 的 Jean Zay 計算機集群上訓練 BLOOM 模型的功耗。該論文提供了人工智能芯片 TDP 與集群總用電量(包括存儲、網(wǎng)絡和其他 IT 設備)之間關系的實證觀察,一直到電網(wǎng)的實際用電量。


另一篇論文《Carbon Emissions and Large Neural Network Training》報告了其他一些模型的訓練時間、配置和訓練功耗。訓練的功耗需求可能會有所不同,具體取決于模型和訓練算法的效率(優(yōu)化模型 FLOP 利用率 - MFU)以及整體網(wǎng)絡和服務器電源效率和使用情況,但下面復制的結果是一個有用的衡量標準。


圖片


這些論文通過將總功耗(千瓦時)乘以數(shù)據(jù)中心運行的電網(wǎng)的碳強度來估計訓練這些模型的碳排放量。目光敏銳的讀者會注意到,法國訓練 BLOOM 模型的碳強度非常低,為 0.057 千克二氧化碳當量/千瓦時,該國 60% 的電力來自核電,遠低于美國 0.387 千克二氧化碳當量/千瓦時的平均水平。我們提供了一組額外的計算,假設訓練作業(yè)在連接到亞利桑那州電網(wǎng)的數(shù)據(jù)中心上運行,亞利桑那州是目前數(shù)據(jù)中心擴建的領先州之一。


排放難題中要考慮的最后一個部分是體現(xiàn)排放,定義為制造和運輸給定設備(在本例中為加速器芯片和相關 IT 設備)所涉及的總碳排放量。關于 AI 加速器芯片的具體排放量的可靠數(shù)據(jù)很少,但一些人粗略估計該數(shù)字為每個 A100 GPU 排放 150 千克二氧化碳當量,托管 8 個 GPU 的服務器排放 2,500 千克二氧化碳當量。經(jīng)過計算,隱含排放量約為訓練運行總排放量的 8-10%。


圖片


這些訓練產(chǎn)生的碳排放量很大,一次 GPT-3 訓練產(chǎn)生 588.9 噸二氧化碳當量,相當于128 輛乘用車的年排放量a。抱怨 GPT-3 訓練排放就像回收塑料水瓶然后每隔幾個月乘坐一次航班一樣。字面上無關的美德信號。


另一方面,可以肯定的是,在確定最終模型之前,進行了多次訓練迭代。2022 年, 在考慮可再生能源項目的任何抵消之前,Google 包括數(shù)據(jù)中心在內(nèi)的設施總共排放了 8,045,800 噸二氧化碳當量。這意味著 GPT-3 并沒有影響世界的碳排放,但是 GPT-4 的 FLOPS 增加了多個數(shù)量級,而當前的 OpenAI 訓練運行比這個數(shù)量級高出一個數(shù)量級以上,訓練的碳排放量為幾年后將開始變得相當大。


我們計算評估,配備 8 個 GPU 的典型 H100 服務器每月會排放約 2,450 千克二氧化碳當量,需要 10,200 瓦 IT 電源 — 假設每千瓦時 (KWh) 0.087 美元,每月成本為 648 美元。


圖片



來源:半導體行業(yè)觀察

三代半導體芯研究
聚焦于第三代半導體前沿技術與信息,持續(xù)為業(yè)內(nèi)分享優(yōu)質(zhì)的三代半技術干貨、新聞動態(tài)、市場分析等內(nèi)容。
17篇原創(chuàng)內(nèi)容
公眾號
功率半導體生態(tài)圈
專注于功率器件最新行業(yè)資訊,分享功率半導體相關知識,致力于推進行業(yè)發(fā)展。
22篇原創(chuàng)內(nèi)容
公眾號



*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



關鍵詞: H100

相關推薦

技術專區(qū)

關閉