AI性能突破1Eflop!英偉達(dá)DGX GH200發(fā)布:256個(gè)GH200芯片,144TB共享內(nèi)存!
5月29日,AI芯片大廠NVIDIA(英偉達(dá))CEO黃仁勛在COMPUTEX 2023展前發(fā)布會(huì)上,正式發(fā)布了全新的GH200 Grace Hopper超級(jí)芯片,以及基于NVIDIA NVLink Switch System 驅(qū)動(dòng)的擁有256個(gè)GH200超級(jí)芯片的NVIDIA DGX GH200超級(jí)計(jì)算機(jī),旨在助力開發(fā)面向生成式AI語言應(yīng)用、推薦系統(tǒng)和數(shù)據(jù)分析工作負(fù)載的巨型、下一代模型。
黃仁勛表示:“生成式AI、大型語言模型和推薦系統(tǒng)是現(xiàn)代經(jīng)濟(jì)的數(shù)字引擎。DGX GH200 AI超級(jí)計(jì)算機(jī)集成了NVIDIA最先進(jìn)的加速計(jì)算和網(wǎng)絡(luò)技術(shù)來拓展AI的前沿?!?/p>
GH200超級(jí)芯片:整合了Grace CPU和H100 GPU,擁有2000億個(gè)晶體管
GH200超級(jí)芯片使用NVIDIA NVLink-C2C芯片互連,將基于Arm的NVIDIA Grace CPU與NVIDIA H100 Tensor Core GPU整合在了一起,以提供CPU+GPU一致性內(nèi)存模型,從而不再需要傳統(tǒng)的CPU至GPU PCIe連接。與最新的PCIe Gen5技術(shù)相比,這也將GPU和CPU之間的帶寬提高了7倍,將互連功耗減少了5倍以上,并為DGX GH200超級(jí)計(jì)算機(jī)提供了一個(gè)600GB的Hopper架構(gòu)GPU構(gòu)建模塊。
具體來說, GH200超級(jí)芯片,是將 72 核的Grace CPU、H100 GPU、96GB 的 HBM3 和 512 GB 的 LPDDR5X 集成在同一個(gè)封裝中,擁有高達(dá) 2000 億個(gè)晶體管。這種組合提供了 CPU 和 GPU 之間驚人的數(shù)據(jù)帶寬,高達(dá) 900G / s,為某些內(nèi)存受限的工作負(fù)載提供了巨大的優(yōu)勢(shì)。
黃仁勛表示,GH200 Grace Hopper超級(jí)芯片已全面投產(chǎn),將可為運(yùn)行復(fù)雜的AI和高性能計(jì)算工作負(fù)載提供動(dòng)力。
NVIDIA DGX GH200:AI性能突破1 Exaflop
NVIDIA此前的 DGX A100 系統(tǒng)只能將八個(gè) A100 GPU 聯(lián)合起來作為一個(gè)單元,面對(duì)生成式人工智能大模型對(duì)于算力的爆炸式增長,NVIDIA的客戶迫切需要更大、更強(qiáng)大的系統(tǒng)。DGX GH200就是為了提供最大的吞吐量和可擴(kuò)展性而設(shè)計(jì)的。
DGX GH200通過定制的NVLink Switch System(包含 36 個(gè) NVLink 開關(guān))將256個(gè)GH200超級(jí)芯片和高達(dá)144TB的共享內(nèi)存連接成一個(gè)單元,避免標(biāo)準(zhǔn)集群連接選項(xiàng)(如 InfiniBand 和以太網(wǎng))的限制,這種新的互連方式使DGX GH200系統(tǒng)中的256個(gè)H100 GPU作為一個(gè)整體協(xié)同運(yùn)行,使其成為了專為最高端的人工智能和高性能計(jì)算工作負(fù)載而設(shè)計(jì)的系統(tǒng)和參考架構(gòu)。可支持?jǐn)?shù)萬億參數(shù)AI大模型訓(xùn)練。
△DGX GH200相比上代DGX A100的共享內(nèi)存容量提升了近500倍。
在 DGX GH200 系統(tǒng)中,GPU 線程可以使用 NVLink 頁表尋址來自 NVLink 網(wǎng)絡(luò)中其他 Grace Hopper 超級(jí)芯片的對(duì)等 HBM3 和 LPDDR5X 內(nèi)存。NVIDIA Magnum I/O加速庫優(yōu)化 GPU 通信以提高效率,增強(qiáng)所有 256 個(gè) GPU 的應(yīng)用程序擴(kuò)展。
△包含 256 個(gè) GPU 的 NVIDIA DGX GH200與NVLink系統(tǒng)的拓?fù)浣Y(jié)構(gòu)
DGX GH200系統(tǒng)中的每個(gè)Grace Hopper Superchip 都與一個(gè)NVIDIA ConnectX-7網(wǎng)絡(luò)適配器和一個(gè)NVIDIA BlueField-3 NIC配對(duì)。DGX GH200 擁有 128 TBps 對(duì)分帶寬和 230.4 TFLOPS 的 NVIDIA SHARP 網(wǎng)內(nèi)計(jì)算,可加速 AI 中常用的集體操作,并通過減少集體操作的通信開銷,將 NVLink 網(wǎng)絡(luò)系統(tǒng)的有效帶寬提高一倍。ConnectX-7 適配器還可以互連多個(gè)DGX GH200 系統(tǒng),以擴(kuò)展到超過256個(gè)GPU的更大的解決方案。
黃仁勛表示,DGX GH200 是“巨型 GPU”,這也是NVIDIA第一次使用 NVLink Switch 拓?fù)浣Y(jié)構(gòu)來構(gòu)建整個(gè)超級(jí)計(jì)算機(jī)集群,這種結(jié)構(gòu)提供了比前一代系統(tǒng)高出10倍的GPU到GPU帶寬,以及7倍的CPU到GPU的帶寬。它還設(shè)計(jì)了提供比競爭對(duì)手高出 5 倍的互連功耗效率和高達(dá) 128 TB / s 的對(duì)分帶寬。該系統(tǒng)有 150 英里(約 241.4公里)的光纖,并且重達(dá) 4 萬磅(約18.14噸),但是呈現(xiàn)出來就像一個(gè)單一的 GPU。
具體性能方面,得益于DGX GH200高達(dá)144TB的共享內(nèi)存,使得其對(duì)于受 GPU內(nèi)存大小瓶頸影響的AI和HPC應(yīng)用程序的性能有了極大的提升。例如具有 TB 級(jí)嵌入式表的深度學(xué)習(xí)推薦模型 (DLRM)、TB 級(jí)圖形神經(jīng)網(wǎng)絡(luò)訓(xùn)練模型或大型數(shù)據(jù)分析工作負(fù)載中,使用 DGX GH200 可實(shí)現(xiàn) 4 至 7 倍的加速。這表明 DGX GH200 是更高級(jí)的 AI 和 HPC 模型的更好解決方案,這些模型需要海量內(nèi)存來進(jìn)行 GPU 共享內(nèi)存編程。
△大內(nèi)存 AI 工作負(fù)載的性能比較
憑借256個(gè)GH200超級(jí)芯片的加持,DGX GH200 的“AI 性能”也達(dá)到了 1 exaflop(一百萬萬億次)級(jí)別。
在軟件工具方面,DGX GH200超級(jí)計(jì)算機(jī)還配備了NVIDIA軟件,可為最大的AI和數(shù)據(jù)分析工作負(fù)載提供一個(gè)交鑰匙式全棧解決方案。NVIDIA Base Command軟件提供AI工作流程管理、企業(yè)級(jí)集群管理和多個(gè)加速計(jì)算、存儲(chǔ)和網(wǎng)絡(luò)基礎(chǔ)設(shè)施的庫,以及為運(yùn)行AI工作負(fù)載而優(yōu)化的系統(tǒng)軟件。
此外還包含NVIDIA AI Enterprise,即NVIDIA AI平臺(tái)的軟件層。它提供100多個(gè)框架、預(yù)訓(xùn)練模型和開發(fā)工具,以簡化生成式AI、計(jì)算機(jī)視覺、語音AI等生產(chǎn)AI的開發(fā)和部署。
谷歌云、Meta和微軟將首批采用
據(jù)介紹,谷歌云、Meta和微軟將有望成為首批通過接入DGX GH200系統(tǒng),來探索其用于生成式AI工作負(fù)載的能力的公司。NVIDIA還打算將DGX GH200設(shè)計(jì)作為藍(lán)圖提供給云服務(wù)提供商和其他超大規(guī)模企業(yè),以便他們能夠進(jìn)一步根據(jù)他們自己的基礎(chǔ)設(shè)施進(jìn)行定制。
谷歌云計(jì)算副總裁Mark Lohmeyer表示:“構(gòu)建先進(jìn)的生成式模型需要?jiǎng)?chuàng)新的AI基礎(chǔ)設(shè)施。Grace Hopper超級(jí)芯片的全新NVLink和共享內(nèi)存解決了大規(guī)模AI的關(guān)鍵瓶頸,我們期待它在谷歌云以及我們的生成式AI計(jì)劃中發(fā)揮強(qiáng)大的能力?!?/p>
Meta基礎(chǔ)設(shè)施、AI系統(tǒng)及加速平臺(tái)副總裁Alexis Bj?rlin表示:“隨著AI模型規(guī)模越來越大,它們需要可擴(kuò)展的強(qiáng)大基礎(chǔ)設(shè)施,以滿足不斷增長的需求。NVIDIA的Grace Hopper設(shè)計(jì)看起來能夠讓研究人員探索新的方法來解決他們面臨的最巨大挑戰(zhàn)。”
微軟Azure基礎(chǔ)設(shè)施企業(yè)副總裁Girish Bablani表示, “在以往訓(xùn)練大型AI模型是一項(xiàng)資源和時(shí)間密集型任務(wù)。DGX GH200 所具備的處理TB級(jí)數(shù)據(jù)集的潛力使得開發(fā)人員能夠在更大的規(guī)模和更快的速度下進(jìn)行高級(jí)別的研究?!?/p>
全新NVIDIA Helios超級(jí)計(jì)算機(jī)年底推出
NVIDIA正在打造自己的基于DGX GH200的AI超級(jí)計(jì)算機(jī),以支持研發(fā)團(tuán)隊(duì)的工作。據(jù)介紹,這臺(tái)名為NVIDIA Helios的超級(jí)計(jì)算機(jī)將配備四個(gè)DGX GH200系統(tǒng)。每個(gè)都將通過NVIDIA Quantum-2 InfiniBand 400 Gb / s 網(wǎng)絡(luò)互連,以提高訓(xùn)練大型AI模型的數(shù)據(jù)吞吐量。Helios將包含1024個(gè)Grace Hopper超級(jí)芯片,預(yù)計(jì)將于今年年底上線。
NVIDIA MGX 系統(tǒng)
NVIDIA DGX 面向最高端市場的AI系統(tǒng),HGX 系統(tǒng)則是面向超大規(guī)模數(shù)據(jù)中心,此次NVIDIA還新推出了介于這兩者之間的的NVIDIA MGX 系統(tǒng)。
NVIDIA 表示,其OEM合作伙伴在為 AI 中心設(shè)計(jì)服務(wù)器時(shí)面臨著新的挑戰(zhàn),這些挑戰(zhàn)可能會(huì)減慢設(shè)計(jì)和部署的速度。NVIDIA 的全新 MGX 參考設(shè)計(jì)架構(gòu)旨在加速這一過程,可以將開發(fā)時(shí)間縮短2/3至僅需6個(gè)月,開發(fā)成本也可以減少3/4。
據(jù)介紹,MGX 系統(tǒng)由模塊化設(shè)計(jì)組成,涵蓋了 NVIDIA 的 CPU 和 GPU、DPU 和網(wǎng)絡(luò)系統(tǒng)的所有方面,但也包括基于通用 x86 和 Arm 處理器的設(shè)計(jì),擁有100 多種參考設(shè)計(jì)。NVIDIA 還提供風(fēng)冷和液冷設(shè)計(jì)選項(xiàng),以適應(yīng)各種應(yīng)用場景。
ASRock Rack(永擎)、華碩、GIGABYTE(技嘉)、和碩、QCT、超微(Supermicro)都將使用 MGX 參考架構(gòu)來開發(fā)將于今年晚些時(shí)候和明年初上市的系統(tǒng)。
Spectrum-X網(wǎng)絡(luò)平臺(tái)
在發(fā)布會(huì)上,NVIDIA還推出了一個(gè)全新的加速網(wǎng)絡(luò)平臺(tái)Spectrum-X,致力于提高基于以太網(wǎng)AI云的性能與效率。
NVIDIA Spectrum-X是將NVIDIA Spectrum-4以太網(wǎng)交換機(jī)與NVIDIA BlueField-3 DPU緊密結(jié)合,取得了1.7倍的整體AI性能和能效提升,同時(shí)可在多租戶環(huán)境中提供一致、可預(yù)測的性能。
Spectrum-X為基于以太網(wǎng)的網(wǎng)絡(luò)帶來了高性能 AI 集群功能,為將 AI 更廣泛地部署到超大規(guī)?;A(chǔ)設(shè)施中提供了新的選擇。Spectrum-X 平臺(tái)還可以與現(xiàn)有的基于以太網(wǎng)的堆棧完全互操作,并提供令人印象深刻的可擴(kuò)展性,單個(gè)交換機(jī)上最多 256 個(gè) 200 Gb/s 端口,或兩層葉脊拓?fù)渲械?16,000 個(gè)端口。
Spectrum-X還提供NVIDIA加速軟件和軟件開發(fā)套件(SDK),使開發(fā)人員能夠構(gòu)建軟件定義的云原生AI應(yīng)用。
NVIDIA表示,這種端到端的功能交付,可以減少基于transformer的大規(guī)模生成式AI模型的運(yùn)行時(shí)間,助力網(wǎng)絡(luò)工程師、AI數(shù)據(jù)科學(xué)家和云服務(wù)商及時(shí)取得更好的結(jié)果,并更快做出明智的決策。
目前,Nvidia Spectrum-X 平臺(tái)及其相關(guān)組件,包括 400G LinkX 光學(xué)器件,現(xiàn)已上市。全球頭部超大規(guī)模云服務(wù)商正在采用NVIDIA Spectrum-X,包括領(lǐng)先的云創(chuàng)新企業(yè)。
作為NVIDIA Spectrum-X參考設(shè)計(jì)的藍(lán)圖和測試平臺(tái),NVIDIA正在構(gòu)建一臺(tái)超大規(guī)模生成式AI超級(jí)計(jì)算機(jī),命名為Israel-1。它將被部署在NVIDIA以色列數(shù)據(jù)中心,由基于NVIDIA HGX平臺(tái)的戴爾PowerEdge XE9680服務(wù)器,BlueField-3 DPU和Spectrum-4交換機(jī)等打造而成。
用生成式AI激活游戲角色生命
在游戲領(lǐng)域,生成式 AI 未來有望使得游戲玩家能夠與游戲角色進(jìn)行互動(dòng),并極大提高游戲的沉浸感。對(duì)此,英偉達(dá)宣布推出面向游戲的定制AI模型代工服務(wù)—Avatar Cloud Engine(ACE)for Game。
英偉達(dá)曾在2020年推出NVIDIA Omniverse,這一款基于NVIDIA RTX和皮克斯Universal Scene Description(USD)的圖形和仿真模擬平臺(tái)型產(chǎn)品,可以實(shí)現(xiàn)3D設(shè)計(jì)協(xié)作以及可擴(kuò)展的多GPU實(shí)時(shí)逼真仿真。
ACE for Games則是在NVIDIA Omniverse的基礎(chǔ)上,讓開發(fā)人員可以使用它來構(gòu)建和部署用于語音、對(duì)話和動(dòng)畫的自定義 AI 模型,從而使得游戲中的角色可以像真人一樣與玩家對(duì)話。主要包括了三大模塊:
一是NVIDIA NeMo大型語言模型(LLM)。這一模型使用專有數(shù)據(jù)構(gòu)建、自定義和部署語言模型,根據(jù)游戲故事的世界觀及人物背景來定制調(diào)整LLM,并且通過NeMo Guardrails來保護(hù)對(duì)話的安全性和效果。
二是NVIDIA Riva,這一模塊主要用于自動(dòng)語音識(shí)別(ASR)及文本轉(zhuǎn)語音,以啟用實(shí)時(shí)語音對(duì)話。
三是NVIDIA Omniverse Audio2Face,主要用于配合語音音軌,實(shí)時(shí)為游戲角色創(chuàng)建臉部表情動(dòng)畫。例如,Audio2Face搭配用于虛幻引擎5的Omniverse Connector,開發(fā)者可以直接將臉部動(dòng)畫添加到MetaHuman(虛幻引擎旗下用于創(chuàng)作逼真人類角色的框架)的角色上。
英偉達(dá)表示,開發(fā)者可以整合整套“ACE 游戲開發(fā)版”解決方案,或是單獨(dú)使用自己需要的組件。
NVIDIA開發(fā)者與性能技術(shù)部門副總裁John Spitzer表示:“生成式AI將徹底改變玩家與游戲人物之間的互動(dòng)方式,并極大地提高游戲沉浸感。基于我們?cè)贏I領(lǐng)域的專業(yè)知識(shí),加上幾十年來與游戲開發(fā)者合作的經(jīng)驗(yàn),NVIDIA正率先在游戲中使用生成式AI?!?/p>
黃仁勛也演示了生成式 AI 合成語音,通過對(duì)真人聲音的模仿合成,可以讓虛擬人“化身”講任何一種語言。黃仁勛表示,AI將成為電子游戲的未來。
生成式AI助力數(shù)字化的智能工廠
目前全球各地的電子制造商正在使用新的綜合參考工作流程來推進(jìn)其工業(yè)數(shù)字化進(jìn)程。這套流程將融合NVIDIA的生成式AI、3D協(xié)作、仿真模擬和自主機(jī)器技術(shù)。
依托龐大的合作伙伴網(wǎng)絡(luò),這套工作流程可幫助制造商使用一系列NVIDIA技術(shù)來規(guī)劃、建造、運(yùn)營和優(yōu)化其工廠。這些技術(shù)包括:可連接頂尖計(jì)算機(jī)輔助設(shè)計(jì)(CAD)應(yīng)用以及生成式AI應(yīng)用程序接口(API)和先進(jìn)框架的NVIDIA Omniverse ;用于仿真和測試機(jī)器人的NVIDIA Isaac Sim 應(yīng)用;以及可用于自動(dòng)光學(xué)檢測的NVIDIA Metropolis視覺AI框架。
黃仁勛在現(xiàn)場演示時(shí)表示:“全球最大的行業(yè)所制造的都是實(shí)物,如果能先以數(shù)字化的方式制造這些產(chǎn)品,就可以節(jié)省大量成本。NVIDIA使電子產(chǎn)品制造商能夠輕松構(gòu)建和運(yùn)營虛擬工廠,并實(shí)現(xiàn)制造和檢查工作流程的數(shù)字化,這大大提高了質(zhì)量和安全性,同時(shí)減少了最后一刻的意外和延誤?!?span style="margin: 0px; padding: 0px; outline: 0px; max-width: 100%; box-sizing: border-box !important; overflow-wrap: break-word !important; font-size: 18px; letter-spacing: 0.034em;">
據(jù)介紹,富士康工業(yè)互聯(lián)網(wǎng)、宣鼎、和碩、廣達(dá)和緯創(chuàng)正在使用新的參考工作流程來優(yōu)化其工作間和裝配線的運(yùn)營,同時(shí)降低生產(chǎn)成本。
比如,富士康工業(yè)互聯(lián)網(wǎng)正在與NVIDIA Metropolis生態(tài)合作伙伴一起實(shí)現(xiàn)電路板質(zhì)控檢測點(diǎn)重要環(huán)節(jié)的自動(dòng)化;宜鼎正在使用NVIDIA Metropolis實(shí)現(xiàn)產(chǎn)線光學(xué)檢測流程的自動(dòng)化,實(shí)現(xiàn)降本提效。
NVIDIA還正在與數(shù)家領(lǐng)先的工具制造和服務(wù)提供商一同在各個(gè)工作流程層面建立統(tǒng)一的全棧架構(gòu)。
在系統(tǒng)層面,NVIDIA IGX Orin 提供了一個(gè)將工業(yè)級(jí)硬件與企業(yè)級(jí)軟件和支持相結(jié)合的一體化邊緣AI平臺(tái)。IGX滿足了邊緣計(jì)算獨(dú)特的耐久性和低功耗要求,同時(shí)提供了開發(fā)和運(yùn)行AI應(yīng)用所需的高性能。
制造商合作伙伴包括凌華科技、研華、安提國際、Dedicated Computing、Prodrive Technologies和Yuan正在為工業(yè)和醫(yī)療市場開發(fā)由IGX驅(qū)動(dòng)的系統(tǒng),這些系統(tǒng)能夠?yàn)閷?shí)際生產(chǎn)帶來數(shù)字化優(yōu)勢(shì)。
在平臺(tái)層面,Omniverse與全球領(lǐng)先的3D、模擬和生成式AI提供商相連接,這個(gè)開放的開發(fā)平臺(tái)可以讓團(tuán)隊(duì)在他們喜愛的應(yīng)用之間建立互操作性,比如來自Adobe、Autodesk和西門子的應(yīng)用。
黃仁勛演示了Omniverse如何通過連接ChatGPT和Blender GPT等各種AI助手來簡化3D工作流程和Python應(yīng)用開發(fā)。NVIDIA Omniverse Cloud平臺(tái)即服務(wù)(PaaS)已上線微軟Azure,能夠向企業(yè)客戶提供Omniverse軟件應(yīng)用的全棧套件和NVIDIA OVX基礎(chǔ)架構(gòu),其具備Azure云服務(wù)的規(guī)模和安全性。
在應(yīng)用層面,Isaac Sim使企業(yè)能夠構(gòu)建并優(yōu)化部署AI機(jī)器人。制造商可以與工業(yè)自動(dòng)化公司READY Robotics合作,在將機(jī)器人部署到現(xiàn)實(shí)世界之前,在仿真中對(duì)機(jī)器人任務(wù)進(jìn)行編程。SoftServe和FS Studio等仿真技術(shù)合作伙伴通過構(gòu)建基于數(shù)字孿生的仿真,為客戶縮短開發(fā)時(shí)間。
NVIDIA Metropolis中的一系列工廠自動(dòng)化AI工作流程使工業(yè)方案商和制造商能夠開發(fā)、部署和管理降本提效的定制化質(zhì)量控制解決方案。包括凌華科技、安提國際、德勤、Quantiphi和西門子在內(nèi)的龐大合作伙伴生態(tài)正在幫助推廣這些解決方案。
買的越多,省的越多
黃仁勛在演講中指出,隨著加速計(jì)算和生成AI的興起,標(biāo)志著計(jì)算的革新,我們正處于一個(gè)全新計(jì)算時(shí)代的轉(zhuǎn)折點(diǎn),加速計(jì)算和AI已經(jīng)被世界上幾乎所有的運(yùn)算和云端公司所接受。
“每一個(gè)計(jì)算時(shí)代,你都可以從事之前無法做到的事情,人工智能時(shí)代顯然也能為我們賦予這樣的能力。”比如,“編程門檻變得極低。我們填補(bǔ)了數(shù)字鴻溝,現(xiàn)在,所有人都是程序員——你只需要對(duì)著電腦說話即可。”黃仁勛說,“由于如此便于使用,所以進(jìn)步的速度飛快,這會(huì)影響幾乎每個(gè)行業(yè)。”
根據(jù)NVIDIA公布的數(shù)據(jù)顯示,目前已有40000家大公司和15000家初創(chuàng)公司使用英偉達(dá)技術(shù)。其中,有超過1600家生成式AI公司采用了NVIDIA技術(shù)。僅2022 年NVIDIA CUDA 軟件下載量更達(dá)2500 萬次。另外,加速計(jì)算服務(wù)、軟體與系統(tǒng)促進(jìn)誕生出新的商業(yè)模式,且讓現(xiàn)有模式更具效率。
除了前面介紹的生成式AI對(duì)于游戲、智能制造等方面的助力之外,生成式AI也正為價(jià)值7000億美元的數(shù)字廣告行業(yè)帶來了新機(jī)遇。基于NVIDIA AI和Omniverse的突破性引擎可以將來自領(lǐng)先軟件制造商的創(chuàng)意3D和AI工具連接在一起,以大規(guī)模革新品牌內(nèi)容和體驗(yàn)。比如,全球最大的營銷服務(wù)機(jī)構(gòu)英國WPP集團(tuán)正與英偉達(dá)合作,在Omniverse Cloud上構(gòu)建首個(gè)生成式AI廣告引擎。
為了更生動(dòng)的展示生成式AI 的能力,黃仁勛還把發(fā)布會(huì)變成大型卡拉OK現(xiàn)場,讓AI以其隨口說出的四句話為歌詞,進(jìn)行編曲創(chuàng)作出一首歌,并邀請(qǐng)現(xiàn)場與會(huì)者跟他一起唱出AI做的歌曲,引發(fā)全場熱情。
黃仁勛還在發(fā)布會(huì)上對(duì)比了使用 GPU 和 CPU 建設(shè)數(shù)據(jù)中心的差異。他聲稱,同樣的投資,客戶可以使用更少的 GPU 建設(shè)一個(gè)能夠處理更大數(shù)據(jù)量的數(shù)據(jù)中心,功耗也更低。
“買的越多,省的越多(The more you buy, the more you save)?!秉S仁勛說道。
編輯:芯智訊-浪客劍
*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。