Supermicro推支持NVIDIA Blackwell和? HGX H100/H200的機(jī)柜級(jí)即插即用液冷AI SuperCluster
Supermicro, Inc.(NASDAQ:SMCI)作為AI、云端、儲(chǔ)存和 5G/邊緣領(lǐng)域的全方位IT解決方案制造商,推出可立即部署式液冷型AI數(shù)據(jù)中心。此數(shù)據(jù)中心專為云端原生解決方案而設(shè)計(jì),透過SuperCluster加速各界企業(yè)對(duì)生成式AI的運(yùn)用,并針對(duì)NVIDIA AI Enterprise軟件平臺(tái)優(yōu)化,適用于生成式AI的開發(fā)與部署。透過Supermicro的4U液冷技術(shù),NVIDIA近期推出的Blackwell GPU能在單一GPU上充分發(fā)揮20 PetaFLOPS的AI效能,且與較早的GPU相比,能提供4倍的AI訓(xùn)練效能與30倍的推論效能,并節(jié)省額外成本。配合此率先上市的策略,Supermicro近期推出基于NVIDIA Blackwell架構(gòu)的完善產(chǎn)品系列,支持新型NVIDIA HGXTM B100、B200和GB200 Grace Blackwell Superchip。
Supermicro總裁暨執(zhí)行長梁見后表示:「Supermicro 在打造與部署具有機(jī)柜級(jí)液冷技術(shù)的AI解決方案方面持續(xù)領(lǐng)先業(yè)界。數(shù)據(jù)中心的液冷配置設(shè)計(jì)可幾近免費(fèi),并透過能持續(xù)降低用電量的優(yōu)勢(shì)為客戶提供額外價(jià)值。我們的解決方案針對(duì)NVIDIA AI Enterprise軟件優(yōu)化,滿足各行各業(yè)的客戶需求,并提供世界規(guī)模級(jí)效率的全球制造產(chǎn)能。因此我們得以縮短交付時(shí)間,更快提供搭配NVIDIA HGX H100和H200,以及即將推出的B100、B200和GB200解決方案的可立即使用型液冷或氣冷運(yùn)算叢集。從液冷板到CDU乃至冷卻塔,我們的機(jī)柜級(jí)全方位液冷解決方案最大可以降低數(shù)據(jù)中心40%的持續(xù)用電量?!?/span>
生成式AI SuperCluster與NVIDIA AI Enterprise、NIM微服務(wù)整合,并透過大規(guī)??蓴U(kuò)展的運(yùn)算單元,提供立即性投資報(bào)酬率效益和更低的AI運(yùn)行成本,進(jìn)而簡化AI以利快速部署
在臺(tái)北國際計(jì)算機(jī)展(COMPUTEX 2024)上,Supermicro展示了即將推出,并針對(duì)NVIDIA Blackwell GPU優(yōu)化的系統(tǒng),包括基于NVIDIA HGX B200的10U氣冷系統(tǒng)和4U液冷系統(tǒng)。此外,Supermicro也將提供8U氣冷型NVIDIA HGX B100系統(tǒng)、NVIDIA GB200 NVL72機(jī)柜(具有72個(gè)透過NVIDIA NVLink 交換器互連的GPU)與新型 NVIDIA MGX?系統(tǒng)(支持NVIDIA H200 NVL PCIe GPU與最新發(fā)表的NVIDIA GB200 NVL2架構(gòu))。
NVIDIA創(chuàng)辦人暨執(zhí)行長黃仁勛表示:「生成式AI正在推動(dòng)整個(gè)運(yùn)算堆棧的重置,新的數(shù)據(jù)中心將會(huì)透過GPU進(jìn)行運(yùn)算加速,并針對(duì)AI優(yōu)化。Supermicro設(shè)計(jì)了頂尖的NVIDIA加速運(yùn)算和網(wǎng)絡(luò)解決方案,使價(jià)值數(shù)兆美元的全球數(shù)據(jù)中心能夠針對(duì)AI時(shí)代優(yōu)化?!?/span>
隨著大型語言模型(Large Language Model,LLM)的快速發(fā)展以及Meta的Llama-3和Mistral的Mixtral 8x22B等開源模型不斷推出,企業(yè)更容易取得并使用當(dāng)今最先進(jìn)的AI模型。簡化AI基礎(chǔ)設(shè)施并以最具成本效益的方式提供存取能力,對(duì)于支持目前的急速AI變革至關(guān)重要。Supermicro云端原生AI SuperCluster使實(shí)時(shí)存取的云端便利性和可移植性之間得以連結(jié),并透過NVIDIA AI Enterprise讓任何規(guī)模的AI項(xiàng)目從評(píng)估測(cè)試階段無縫順暢地進(jìn)行到實(shí)際作業(yè)階段。這提供了能在任何地方運(yùn)行并安全管理數(shù)據(jù)的靈活性,包括自架系統(tǒng)或地端大型數(shù)據(jù)中心。
隨著各界企業(yè)急速進(jìn)行生成式AI的實(shí)驗(yàn)性使用,Supermicro與NVIDIA密切合作,確保無縫且靈活地從AI應(yīng)用的實(shí)驗(yàn)和評(píng)估試行推動(dòng)至作業(yè)部署和大規(guī)模數(shù)據(jù)中心AI。此順暢流程是藉由NVIDIA AI Enterprise軟件平臺(tái)的機(jī)柜、叢集級(jí)優(yōu)化而實(shí)現(xiàn),能使從初步探索至可擴(kuò)展AI落地的過程更流暢無阻。
托管服務(wù)涉及基礎(chǔ)架構(gòu)的選擇、數(shù)據(jù)共享和生成式AI策略控管。NVIDIA NIM微服務(wù)作為 NVIDIA AI Enterprise的一部分,可在無缺陷情況下提供托管生成式AI和開源部署優(yōu)勢(shì)。其多功能推論運(yùn)行環(huán)境透過微服務(wù),可加速從開源模型到NVIDIA基礎(chǔ)模型等各類型生成式AI的部署。此外,NVIDIA NeMoTM可實(shí)現(xiàn)透過數(shù)據(jù)庋用、進(jìn)階自定義和檢索增強(qiáng)生成(Retrieval-Augmented Generation,RAG)的客制模型開發(fā),以實(shí)現(xiàn)企業(yè)級(jí)解決方案。與搭配NVIDIA AI Enterprise的Supermicro SuperCluster整合后,NVIDIA NIM能為可擴(kuò)展、加速型生成式AI作業(yè)的部署提供最快途徑。
Supermicro目前的生成式AI SuperCluster產(chǎn)品包括:
● 液冷型Supermicro NVIDIA HGX H100/H200 SuperCluster,具有256個(gè)H100/H200 GPU,為5個(gè)機(jī)柜規(guī)模的可擴(kuò)展運(yùn)算單元(包括 1 個(gè)專用網(wǎng)絡(luò)機(jī)柜)
● 氣冷型Supermicro NVIDIA HGX H100/H200 SuperCluster,具有256個(gè)HGX H100/H200 GPU,為9個(gè)機(jī)柜規(guī)模的可擴(kuò)展運(yùn)算單元(包括1個(gè)專用網(wǎng)絡(luò)機(jī)柜)
● Supermicro NVIDIA MGX GH200 SuperCluster,具有256個(gè)GH200 GraceTM Hopper Superchip,為9個(gè)機(jī)柜規(guī)模的可擴(kuò)展運(yùn)算單元(包括1個(gè)專用網(wǎng)絡(luò)機(jī)柜)
Supermicro的SuperCluster支持NVIDIA AI Enterprise,其中包括NVIDIA NIM微服務(wù)和NVIDIA NeMo平臺(tái),能實(shí)現(xiàn)端對(duì)端生成式AI客制,并針對(duì)NVIDIA Quantum-2 InfiniBand以及具有每GPU 400Gb/s網(wǎng)速的新型NVIDIA Spectrum-X以太網(wǎng)絡(luò)平臺(tái)優(yōu)化,可擴(kuò)展到具有數(shù)萬個(gè)GPU的大型運(yùn)算叢集。
Supermicro即將推出的SuperCluster包括:
● Supermicro NVIDIA HGX B200 SuperCluster,液冷型
● Supermicro NVIDIA HGX B100/B200 SuperCluster,氣冷型
● Supermicro NVIDIA GB200 NVL72 或 NVL36 SuperCluster,液冷型
Supermicro的SuperCluster解決方案針對(duì)LLM訓(xùn)練、深度學(xué)習(xí)以及大規(guī)模與大批量推論優(yōu)化。Supermicro的L11和L12驗(yàn)證測(cè)試及現(xiàn)場部署服務(wù)可為客戶提供無縫順暢體驗(yàn)??蛻羰盏郊床寮从玫目蓴U(kuò)充單元后即可在數(shù)據(jù)中心輕松部署,進(jìn)而更快取得效益。
評(píng)論