2024 年十大人工智能芯片制造公司
如下圖所示,神經(jīng)網(wǎng)絡(luò)的參數(shù)數(shù)量(即寬度和深度)以及模型大小都在增加。為了構(gòu)建更好的深度學(xué)習(xí)模型和強(qiáng)大的人工智能應(yīng)用程序,組織需要增加計(jì)算能力和內(nèi)存帶寬。
本文引用地址:http://2s4d.com/article/202405/458977.htm強(qiáng)大的通用芯片(例如 CPU)無法支持高度并行的深度學(xué)習(xí)模型。因此,支持并行計(jì)算能力的人工智能芯片的需求越來越大,麥肯錫認(rèn)為,這一趨勢將持續(xù)下去。
然而,即使是擁有眾多世界級工程師和強(qiáng)大研究背景的英特爾,也需要三年的時間來開發(fā)自己的 AI 芯片。因此,對于大多數(shù)公司來說,從這些供應(yīng)商購買芯片或從云 GPU 提供商租用容量是開發(fā)強(qiáng)大的深度學(xué)習(xí)模型的唯一途徑。本文將介紹頂尖的 AI 芯片供應(yīng)商,幫助企業(yè)選擇合適的芯片。
領(lǐng)先的人工智能芯片生產(chǎn)商有哪些?
1. 英偉達(dá)
自 20 世紀(jì) 90 年代以來,英偉達(dá) 一直在為游戲領(lǐng)域生產(chǎn)圖形處理單元 (GPU)。PlayStation3 和 Xbox 均使用 Nvidia 圖形陣列。該公司還生產(chǎn) Volta、Xavier 和 Tesla 等人工智能芯片。得益于生成式 AI 熱潮,英偉達(dá)在 2023 年取得了優(yōu)異的成績,估值達(dá)到萬億,鞏固了其 GPU 和 AI 硬件市場領(lǐng)導(dǎo)者的地位。
英偉達(dá) 的芯片組旨在解決各個行業(yè)的業(yè)務(wù)問題。例如,Xavier 是自動駕駛解決方案的基礎(chǔ),而 Volta 則針對數(shù)據(jù)中心。DGX A100 和 H100 是 英偉達(dá) 成功的旗艦 AI 芯片,專為數(shù)據(jù)中心的 AI 訓(xùn)練和推理而設(shè)計(jì)。英偉達(dá) 發(fā)布了 H200、B200 和 GB200 芯片;HGX 服務(wù)器,例如結(jié)合了 8 個此類芯片的 HGX H200 和 HGX B200;NVL 系列和 GB200 SuperPod 將更多芯片組合成大型集群。
云 GPU
對于云上的 AI 工作負(fù)載,Nvidia 幾乎處于壟斷地位,大多數(shù)云廠商只使用 Nvidia GPU 作為云 GPU。Nvidia 還推出了 DGX Cloud 產(chǎn)品,直接向企業(yè)提供云 GPU 基礎(chǔ)設(shè)施。
2.AMD
AMD 是一家擁有 CPU、GPU 和 AI 加速器產(chǎn)品的芯片制造商。例如,AMD 的 Alveo U50 數(shù)據(jù)中心加速卡擁有 500 億個晶體管。Accelerator 可以運(yùn)行 1000 萬個嵌入數(shù)據(jù)集并在毫秒內(nèi)執(zhí)行圖算法。
AMD 于 2023 年 6 月推出了用于 AI 訓(xùn)練工作負(fù)載的 MI300,并將與 NVIDIA 爭奪該市場的市場份額。正如 ChatGPT 所表明的那樣,生成式 AI 的興起,需求迅速增加,導(dǎo)致 Nvidia 的 AI 硬件難以采購,因此有初創(chuàng)公司、研究機(jī)構(gòu)、企業(yè)和科技巨頭在 2023 年采用了 AMD 硬件。
AMD 還與 Hugging Face 等機(jī)器學(xué)習(xí)公司合作,使數(shù)據(jù)科學(xué)家能夠更有效地使用他們的硬件。
軟件生態(tài)系統(tǒng)至關(guān)重要,因?yàn)橛布阅芎艽蟪潭壬弦蕾囉谲浖?yōu)化。例如,AMD 和 NVIDIA 在 H100 和 MI300 基準(zhǔn)測試上存在公開分歧。分歧的焦點(diǎn)是基準(zhǔn)測試中使用的包和浮點(diǎn)。根據(jù)最新的基準(zhǔn)測試,對于 70B LLM 的推理,MI300 似乎更好或與 H100 相當(dāng)。
3. 英特爾
英特爾是 CPU 市場最大的廠商,擁有悠久的半導(dǎo)體開發(fā)歷史。2017 年,英特爾成為全球第一家銷售額突破 10 億美元大關(guān)的 AI 芯片公司。
英特爾的至強(qiáng) CPU 適用于各種工作,包括數(shù)據(jù)中心的處理,并對該公司的商業(yè)成功產(chǎn)生了影響。
Gaudi3 是英特爾最新的 AI 加速處理器。自 2024 年 4 月公開發(fā)布以來,目前對其性能的基準(zhǔn)測試有限。
4.Alphabet/谷歌云平臺
GoogleCloud TPU 是專門構(gòu)建的機(jī)器學(xué)習(xí)加速器芯片,為翻譯、照片、搜索、助手和 Gmail 等 Google 產(chǎn)品提供支持。它也可以通過 Google Cloud 使用。谷歌于 2016 年發(fā)布了 TPU。最新的 TPU 是 Trillium,第六代 TPU。
Edge TPU 是 Google Alphabet 的另一款加速器芯片,比一美分硬幣還要小,專為智能手機(jī)、平板電腦和物聯(lián)網(wǎng)設(shè)備等邊緣設(shè)備而設(shè)計(jì)。
5.AWS
AWS 生產(chǎn)用于模型訓(xùn)練的 Tranium 芯片和用于推理的 Inferentia 芯片。盡管 AWS 是公共云市場的領(lǐng)導(dǎo)者,但它在谷歌之后開始構(gòu)建自己的芯片。
6、IBM
IBM 將于 2022 年發(fā)布最新的深度學(xué)習(xí)芯片——人工智能單元 (AIU)。IBM 正在考慮使用這些芯片為其 watson.x 生成式人工智能平臺提供支持。
AIU 基于「IBM Telum 處理器」構(gòu)建,該處理器為 IBM Z 大型機(jī)服務(wù)器的 AI 處理能力提供支持。Telum 處理器在推出時突出的用例包括欺詐檢測。
IBM 還證明,合并計(jì)算和內(nèi)存可以提高效率。這些已在 NorthPole 處理器原型中得到演示。
7、阿里巴巴
阿里巴巴生產(chǎn)含光 800 等推理芯片。
領(lǐng)先的人工智能芯片初創(chuàng)公司有哪些?
這里還想介紹一些 AI 芯片行業(yè)的初創(chuàng)公司,他們的名字在不久的將來可能會經(jīng)常聽到。盡管這些公司剛剛成立不久,但它們已經(jīng)籌集了數(shù)百萬美元。
圖 2:AI 芯片制造商的融資總額,來源:Statista
8.SambaNova 系統(tǒng)
SambaNova Systems 成立于 2017 年,目標(biāo)是為大批量生成型 AI 工作負(fù)載開發(fā)高性能、高精度的硬件軟件系統(tǒng)。該公司開發(fā)了 SN40L 芯片并籌集了超過 11 億美元的資金。
值得注意的是,SambaNova Systems 還將其平臺出租給企業(yè)。SambaNova Systems 的人工智能平臺即服務(wù)方法使其系統(tǒng)更易于采用,并鼓勵循環(huán)經(jīng)濟(jì)的硬件重用。
9. Cerebras Systems
Cerebras Systems 成立于 2015 年。2021 年 4 月,該公司宣布推出全新 AI 芯片型號 Cerebras WSE-2,擁有 85 萬個內(nèi)核和 2.6 萬億個晶體管。毫無疑問,WSE-2 比 WSE-1 有了很大改進(jìn),WSE-1 擁有 1.2 萬億個晶體管和 40 萬個處理核心。
Celebra 的系統(tǒng)與阿斯利康和葛蘭素史克等多家制藥公司合作,因?yàn)?WSE-1 的有效技術(shù)加速了遺傳和基因組研究,縮短了藥物發(fā)現(xiàn)的時間。
10. Groq
Groq 由前谷歌員工創(chuàng)立。該公司代表 LPU,一種人工智能芯片架構(gòu)的新模型,旨在讓公司更容易采用他們的系統(tǒng)。該初創(chuàng)公司已籌集約 3.5 億美元,并生產(chǎn)了首批型號,例如 GroqChip 處理器、GroqCard 加速器等。
該公司專注于 LLM 推理,并發(fā)布了 Llama-2 70B 的基準(zhǔn)測試。
該公司表示,2024 年第一季度,有 7 萬名開發(fā)人員在其云平臺上注冊,并構(gòu)建了 1.9 萬個新應(yīng)用程序。
2022 年 3 月 1 日,Groq 收購了 Maxeler,后者為金融服務(wù)提供高性能計(jì)算 (HPC) 解決方案。
評論