新聞中心

EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > Nvidia CEO Jensen Huang宣布新的AI芯片:“我們需要更大的GPU”

Nvidia CEO Jensen Huang宣布新的AI芯片:“我們需要更大的GPU”

作者:EEPW 時間:2024-03-21 來源:EEPW 收藏

Nvidia于周一宣布了一款新一代的人工智能芯片和軟件,用于運行AI模型。這款新的AI圖形處理器被命名為Blackwell,預計將于今年晚些時候發(fā)貨。這一宣布發(fā)生在各家公司和軟件制造商仍在竭力獲取當前一代H100和類似芯片的情況下。

本文引用地址:http://2s4d.com/article/202403/456625.htm

在加州圣何塞舉行的開發(fā)者大會上,該公司宣布了這一消息,旨在鞏固其作為AI公司首選供應商的地位。

自從2022年底OpenAI的ChatGPT掀起了人工智能熱潮以來,的股價已上漲了五倍,總銷售額也增長了兩倍多。的高端服務器GPU對于訓練和部署大型AI模型至關重要。微軟和Meta等公司已經(jīng)花費數(shù)十億美元購買了這些芯片。

這一新一代的AI圖形處理器被命名為Blackwell。第一款Blackwell芯片被稱為GB200,預計將于今年晚些時候發(fā)貨。英偉達正在通過提供更強大的芯片來吸引客戶以刺激新訂單。例如,一些公司和軟件制造商仍在爭相獲取當前一代“Hopper” H100和類似芯片。

“Hopper是非常出色的,但我們需要更大的GPU,”英偉達CEO Jensen Huang周一在加州的開發(fā)者大會上表示。

英偉達的股價在周一的盤后交易中下跌了超過1%。

該公司還推出了一款名為NIM的盈利軟件,這將使部署AI變得更加容易,這給了客戶另一個理由選擇英偉達芯片而不是日益增多的競爭對手。

英偉達的高管表示,該公司正在從一個傭兵式的芯片提供商轉(zhuǎn)變?yōu)橐粋€像微軟或蘋果一樣的平臺提供商,其他公司可以在其上構(gòu)建軟件。

“Blackwell不僅僅是一種芯片,它是一個平臺的名稱,”黃仁勛說道。

“可銷售的商業(yè)產(chǎn)品是GPU,軟件是為了幫助人們以不同方式使用GPU,”英偉達企業(yè)副總裁Manuvir Das在采訪中說道?!爱斎?,我們?nèi)匀辉谧鲞@件事。但真正改變的是,我們現(xiàn)在真正擁有了一個商業(yè)軟件業(yè)務?!?/p>

Das表示,英偉達的新軟件將使在任何英偉達的GPU上運行程序變得更加容易,即使是那些可能更適合部署而不是構(gòu)建AI的舊版本。

“如果你是開發(fā)人員,你有一個你希望人們采納的有趣模型,如果你把它放在一個NIM中,我們將確保它可以在我們所有的GPU上運行,這樣你就可以觸及到很多人,”Das說道。

見證Hopper的繼任者:Blackwell

每兩年,英偉達更新一次其GPU架構(gòu),從而實現(xiàn)性能的大幅提升。過去一年發(fā)布的許多AI模型都是在該公司的Hopper架構(gòu)上進行訓練的——比如H100——該架構(gòu)于2022年宣布。

英偉達表示,基于Blackwell的處理器,如GB200,為AI公司提供了巨大的性能升級,AI性能達到20 petaflops,而H100僅為4 petaflops。英偉達表示,額外的處理能力將使AI公司能夠訓練更大更復雜的模型。

該芯片包括英偉達所稱的“專為運行基于transformers的AI而構(gòu)建的變壓器引擎”,這是支撐ChatGPT的核心技術之一。

Blackwell GPU較大,將兩個分別制造的芯片合并成一個由TSMC制造的芯片。它還將作為一個完整的服務器產(chǎn)品推出,名為GB200 NVLink 2,將72個Blackwell GPU和其他旨在訓練AI模型的英偉達零部件組合在一起。

亞馬遜、谷歌、微軟和甲骨文將通過云服務銷售對GB200的訪問。GB200配備了兩個B200 Blackwell GPU和一個基于Arm的Grace CPU。英偉達表示,亞馬遜網(wǎng)絡服務將建立一個擁有20000個GB200芯片的服務器集群。

英偉達表示,該系統(tǒng)可以部署一個27萬億參數(shù)模型。這比最大的模型如GPT-4的1.7萬億參數(shù)要大得多。許多人工智能研究人員認為,具有更多參數(shù)和數(shù)據(jù)的更大模型可以解鎖新的能力。

英偉達沒有提供新GB200或其所用系統(tǒng)的成本。據(jù)分析師估計,英偉達基于Hopper的H100的成本在每個芯片之間在25000到40000美元之間,整個系統(tǒng)的成本高達200000美元。

英偉達還將B200圖形處理器作為一個完整系統(tǒng)的一部分出售,該系統(tǒng)占據(jù)了整個服務器機架。

Nvidia推出了一款名為NIM的新產(chǎn)品,旨在為其Nvidia企業(yè)軟件訂閱服務增添功能。

NIM使得利用老款Nvidia GPU進行推理任務變得更加容易,推理任務涉及運行AI軟件。這使得公司可以繼續(xù)利用他們已經(jīng)擁有的數(shù)以億計的Nvidia GPU。與AI模型的初始訓練相比,推理需要較少的計算資源。NIM使得公司可以運行自己的AI模型,而不是購買像OpenAI這樣的公司提供的AI結(jié)果服務。

這一戰(zhàn)略的目標是讓購買Nvidia服務器的客戶注冊Nvidia企業(yè)服務,該服務每年以每GPU 4,500美元的價格出售。

Nvidia將與微軟、Hugging Face等AI公司合作,以確保他們的AI模型能夠在所有兼容的Nvidia芯片上運行。然后,開發(fā)人員可以使用NIM,在自己的服務器或基于云的Nvidia服務器上高效地運行模型,而無需經(jīng)歷復雜的配置過程。

Nvidia的企業(yè)副總裁Manuvir Das解釋說,將NIM集成到他們的代碼中非常簡單,只需將一行代碼指向Nvidia推理微服務,而不是OpenAI的服務。

此外,Nvidia強調(diào)該軟件還將有助于在配備GPU的筆記本電腦上運行AI,而不是僅在云服務器上運行AI任務。



關鍵詞: 英偉達

評論


相關推薦

技術專區(qū)

關閉