?英偉達(dá) 文章 最新資訊
亞馬遜AWS發(fā)布新AI芯片,同時(shí)提供英偉達(dá)H200
- 11月29日消息,在美國時(shí)間周二舉辦的Reinvent大會上,亞馬遜旗下的云計(jì)算部門AWS發(fā)布了新的人工智能(AI)芯片,供客戶構(gòu)建和運(yùn)行人工智能應(yīng)用程序,并計(jì)劃提供英偉達(dá)的最新芯片。AWS正試圖以各種高性價(jià)比的選擇脫穎而出,成為云服務(wù)提供商。不過,它不會只銷售廉價(jià)的亞馬遜品牌產(chǎn)品。就像亞馬遜的在線零售市場一樣,亞馬遜的云計(jì)算服務(wù)也將提供來自其他供應(yīng)商的頂級產(chǎn)品,包括頂級人工智能芯片制造商英偉達(dá)的GPU。自人工智能初創(chuàng)企業(yè)OpenAI去年發(fā)布ChatGPT聊天機(jī)器人以來,英偉達(dá)GPU的需求就不斷飆升。Ch
- 關(guān)鍵字: 亞馬遜 AWS AI芯片 英偉達(dá)
英偉達(dá)最強(qiáng)AI芯片H200性能翻倍 AMD出師未捷身先死?
- 11月13日,英偉達(dá)推出新一代AI旗艦芯片H200,是在目前市場上最強(qiáng)AI芯片H100的基礎(chǔ)上進(jìn)行了大升級。H200擁有141GB的內(nèi)存幾乎是H100最高80GB內(nèi)存的2倍,4.8TB/s的帶寬也顯著高于H100的3.35TB/s。在推理速度上H200幾乎達(dá)到了H100的兩倍,英偉達(dá)表示根據(jù)使用Meta的70B大模型Llama 2進(jìn)行測試,H200的輸出速度幾乎是H100的兩倍。根據(jù)官方發(fā)布的圖片,H200在大模型Llama 2、GPT-3.5的輸出速度上分別是H100的1.9倍和1.6倍,在高性能計(jì)算H
- 關(guān)鍵字: 英偉達(dá) AI 芯片 H200 AMD
臺積電董事長稱英偉達(dá)將在2023年成為全球最大的半導(dǎo)體公司
- 臺積電董事長劉德音認(rèn)為英偉達(dá)將在今年年底成為最大的半導(dǎo)體公司。在中國全國工商聯(lián)舉辦的講座上,劉德音討論了臺積電在以人工智能為重點(diǎn)的世界中的未來,并表示英偉達(dá)將借助人工智能發(fā)展成為世界上最大的半導(dǎo)體公司。2023年對于英偉達(dá)來說是非同尋常的一年。第二季度創(chuàng)紀(jì)錄的135億美元收入本身就令人印象深刻,第三季度又增加了181.2億美元。這種快速增長在半導(dǎo)體領(lǐng)域幾乎聞所未聞;即使是AMD,在開始蠶食英特爾市場份額的一年里,其收入也沒有超過三倍。至于英偉達(dá)的競爭對手,該公司的收入超過了英特爾、三星,甚至臺積電,臺積電
- 關(guān)鍵字: 臺積電 英偉達(dá) 半導(dǎo)體
Omdia:英偉達(dá) Q3 售出近 50 萬個(gè) A100 和 H100 AI GPU,Meta 和微軟是最大買家
- IT之家 11 月 28 日消息,本財(cái)年第三季度,得益于 AI GPU 的需求火熱,英偉達(dá)在數(shù)據(jù)中心硬件上賺了 145 億美元(IT之家備注:當(dāng)前約 1038.2 億元人民幣)。研究機(jī)構(gòu) Omdia 表示,英偉達(dá) Q3 售出了近 50 萬個(gè) A100 和 H100 GPU,基于 H100 的服務(wù)器的交付周期已延長至 36 到 52 周。Omdia 認(rèn)為,Meta 和微軟是英偉達(dá) H100 GPU 的最大買家。他們都采購了多達(dá) 15 萬個(gè) H100 GPU,遠(yuǎn)遠(yuǎn)超過谷歌、亞馬遜、甲骨文和騰訊購買的
- 關(guān)鍵字: 英偉達(dá) GPU 計(jì)算平臺
高通、英偉達(dá)、AMD、特斯拉等先進(jìn)制程芯片,花落誰家?
- 蘋果、英偉達(dá)、AMD、高通和聯(lián)發(fā)科等都采用臺積電半導(dǎo)體制程生產(chǎn)最新芯片,部分芯片可能采用三星晶圓代工,但通常不是旗艦。 隨著三星過去幾個(gè)月良率提升,三星非常希望拿下部分訂單,例如3納米GAA制程。之前市場消息,高通Snapdragon 8 Gen 4可能采用雙代工廠策略,也就是同時(shí)采用臺積電的N3E制程技術(shù)和三星的SF3E制程技術(shù)。不過,目前高通和聯(lián)發(fā)科都計(jì)劃采用臺積電第二代3納米制程技術(shù)(N3E),制造Snapdragon 3 Gen 8和天璣4的芯片,并沒有所謂的雙來源計(jì)劃。三星在2022年6
- 關(guān)鍵字: 高通 英偉達(dá) AMD 特斯拉 先進(jìn)制程
消息稱中國特供版英偉達(dá) H20 AI 芯片推遲到明年一季度發(fā)布
- IT之家?11 月 24 日消息,芯片咨詢公司 SemiAnalysis 此前消息稱,英偉達(dá)現(xiàn)已開發(fā)出針對中國區(qū)的最新改良版 AI 芯片,包括 HGX H20、L20 PCIe 和 L2 PCIe,在 LLM 推理中,要比 H100 快 20% 以上。據(jù)路透社報(bào)道,兩位消息人士透露,英偉達(dá)已告知中國客戶,HGX H20 AI 芯片的推出時(shí)間將推遲到明年第一季度。消息人士稱,他們被告知,由于服務(wù)器制造商在集成芯片方面遇到問題,H20 被推遲。其中有人表示,他們被告知可能會在 2 月或 3 月發(fā)布。
- 關(guān)鍵字: 英偉達(dá) GPU 計(jì)算平臺 H20
英偉達(dá)預(yù)估明年高端AI服務(wù)器出貨中國占比低于4%
- 11月24日消息,受惠北美大型CSP廠商對AI服務(wù)器需求高漲,根據(jù)英偉達(dá)日前公布的FY3Q24財(cái)報(bào)資料顯示,數(shù)據(jù)中心部門營收創(chuàng)新高。不過,據(jù)集邦咨詢觀察,盡管英偉達(dá)高階GPU出貨動能強(qiáng)勁,然近期美國政府出臺對中國大陸新一波禁令卻對其大陸業(yè)務(wù)帶來沖擊,英偉達(dá)雖然快速推出符合規(guī)范的產(chǎn)品如H20、L20及L2,但中國大陸云端廠商仍在測試驗(yàn)證階段,難在第4季對英偉達(dá)貢獻(xiàn)實(shí)質(zhì)營收,預(yù)估2024年第1季才會逐步放量。集邦咨詢表示,2023~2024年北美CSPs如微軟、Google、AWS等仍是高階AI服務(wù)器(包含搭
- 關(guān)鍵字: 英偉達(dá) GPU AI服務(wù)器
英偉達(dá)第三財(cái)季凈利潤暴增1259% AI成為“全速增長”引擎
- 美國當(dāng)?shù)貢r(shí)間周二,芯片巨頭英偉達(dá)公布了截至10月29日的2024財(cái)年第三財(cái)季財(cái)報(bào)。財(cái)報(bào)顯示,英偉達(dá)第三財(cái)季營收達(dá)181.2億美元,同比增長206%,環(huán)比增長34%;凈利潤為92億美元,同比增長1259%,環(huán)比增長49%。值得一提的是就在兩年前,用于在個(gè)人電腦上玩視頻游戲的GPU還是英偉達(dá)最大的收入來源。而現(xiàn)在,英偉達(dá)的大部分收入來自服務(wù)器群內(nèi)的部署。英偉達(dá)的數(shù)據(jù)中心業(yè)務(wù)是提供云計(jì)算和人工智能等服務(wù)的關(guān)鍵。今年第三財(cái)季,英偉達(dá)數(shù)據(jù)中心營收達(dá)到創(chuàng)紀(jì)錄的145.1億美元,遠(yuǎn)遠(yuǎn)高于去年同期的38億美元,也高于分析
- 關(guān)鍵字: 英偉達(dá) AI 芯片 財(cái)報(bào) 數(shù)據(jù)中心
英偉達(dá)第三財(cái)季營收 181.2 億美元大增 206%,凈利潤 92.43 億美元大增 1259%
- IT之家 11 月 22 日消息,英偉達(dá)今日公布了該公司的 2024 財(cái)年第三財(cái)季財(cái)報(bào)。報(bào)告顯示,英偉達(dá)第三財(cái)季營收為 181.20 億美元(IT之家備注:當(dāng)前約 1293.77 億元人民幣),與上年同期的 59.31 億美元相比增長 206%,與上一財(cái)季的 135.07 億美元相比增長 34%。英偉達(dá)第三財(cái)季凈利潤為 92.43 億美元(當(dāng)前約 659.95 億元人民幣),與上年同期的 6.80 億美元相比增長 1259%,與上一財(cái)季的 61.88 億美元相比增長 49%;不按照美國通用會計(jì)準(zhǔn)
- 關(guān)鍵字: 英偉達(dá) 財(cái)報(bào)
4090全渠道禁售 !RTX 4080/70 Ti清庫存 SUPER新品到貨替代
- 據(jù)英偉達(dá)中國官網(wǎng)顯示,RTX 4090信息已經(jīng)被移除,而這款顯卡也逐漸在國內(nèi)電商渠道下架(華碩、七彩虹等英偉達(dá)合作商也同樣紛紛下架該型號的非公顯卡)。不過除了RTX 4090外,其余RTX 40系列國內(nèi)用戶都可以正常購買(包含4080/4070/4070 Ti/4060/4060 Ti)。10月中旬,美國最新的出口管制政策有所調(diào)整:A800、H800等“特供”芯片產(chǎn)品受限,部分高端消費(fèi)級顯卡可能也會被美國列入出口管制名單中,英偉達(dá)旗艦游戲顯卡一夜間全網(wǎng)斷貨。但有消息人士表示,消費(fèi)級顯卡的管制意義并不大,H
- 關(guān)鍵字: 英偉達(dá) 顯卡 RTX 4090 數(shù)據(jù)中心
不想依賴英偉達(dá)!微軟發(fā)布兩款自研AI芯片,可訓(xùn)練大模型
- 11月16日消息,美國時(shí)間周三,微軟發(fā)布了首款自研人工智能(AI)芯片,可用于訓(xùn)練大語言模型,擺脫對英偉達(dá)昂貴芯片的依賴。微軟還為云基礎(chǔ)設(shè)施構(gòu)建了基于Arm架構(gòu)的CPU。這兩款自研芯片旨在為Azure數(shù)據(jù)中心提供動力,并幫助該公司及其企業(yè)客戶準(zhǔn)備迎接AI時(shí)代的到來。微軟的Azure Maia AI芯片和Arm架構(gòu)Azure Cobalt CPU將于2024年上市。今年,英偉達(dá)的H100 GPU需求激增,這些處理器被廣泛用于訓(xùn)練和運(yùn)行生成圖像工具和大語言模型。這些GPU的需求非常高,甚至在eBay
- 關(guān)鍵字: 英偉達(dá) 微軟 自研 AI 芯片
美股周四:法拉第未來下跌近23%,阿里跌逾9%
- 11月17日消息,美國時(shí)間周四,美股收盤主要股指漲跌不一。投資者關(guān)注大型零售商的財(cái)報(bào)和美國一系列疲軟的經(jīng)濟(jì)數(shù)據(jù)。道瓊斯指數(shù)收于34945.47點(diǎn),下跌45.74點(diǎn),跌幅0.13%,結(jié)束了連續(xù)四天的上漲;標(biāo)準(zhǔn)普爾500指數(shù)收于4508.24點(diǎn),漲幅0.12%,創(chuàng)今年9月1日以來的最高點(diǎn)位;納斯達(dá)克指數(shù)收于14113.67點(diǎn),漲幅0.07%,創(chuàng)今年8月1日以來的最高點(diǎn)位。大型科技股多數(shù)上漲,谷歌、微軟和奈飛漲幅超過1%,蘋果漲幅接近1%。芯片龍頭股多數(shù)上漲,英特爾和ARM漲幅超過3%,高通和德州儀器漲幅超過1
- 關(guān)鍵字: 法拉第 英特爾 英偉達(dá)
英偉達(dá)發(fā)布新一代 AI 芯片 H200
- 當(dāng)?shù)貢r(shí)間 11 月 13 日,英偉達(dá)宣布推出 NVIDIA HGX? H200,為全球領(lǐng)先的 AI 計(jì)算平臺帶來強(qiáng)大動力。該平臺基于 NVIDIA Hopper? 架構(gòu),配備 NVIDIA H200 Tensor Core GPU 和高級內(nèi)存,可處理生成 AI 和高性能計(jì)算工作負(fù)載的海量數(shù)據(jù)。H200 將于 2024 年第二季度開始向全球系統(tǒng)制造商和云服務(wù)提供商供貨。NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的內(nèi)存,可加速生成式 AI 和大型語言模型,同時(shí)推進(jìn) H
- 關(guān)鍵字: 英偉達(dá) H200
NVIDIA 為全球領(lǐng)先的 AI 計(jì)算平臺 Hopper 再添新動力
- 據(jù)英偉達(dá)官微消息,近日,NVIDIA宣布推出 NVIDIA HGX? H200,為Hopper這一全球領(lǐng)先的AI計(jì)算平臺再添新動力。據(jù)悉,NVIDIA H200是首款采用HBM3e的GPU,其運(yùn)行更快、更大的顯存容量將進(jìn)一步加速生成式AI與大語言模型,同時(shí)推進(jìn)用于HPC工作負(fù)載的科學(xué)計(jì)算。憑借HBM3e,NVIDIA H200能夠提供傳輸速度達(dá)4.8 TB /秒的141GB顯存。與上一代架構(gòu)的NVIDIA A100相比,其容量幾乎翻了一倍,帶寬也增加了2.4倍。據(jù)了解,全球領(lǐng)先的服務(wù)器制造商和云
- 關(guān)鍵字: 英偉達(dá) Hopper AI GPU
英偉達(dá)H200帶寬狂飆!HBM3e/HBM3時(shí)代即將來臨
- 當(dāng)?shù)貢r(shí)間11月13日,英偉達(dá)(NVIDIA)宣布推出NVIDIA HGX? H200,旨為世界領(lǐng)先的AI計(jì)算平臺提供強(qiáng)大動力,將于2024年第二季度開始在全球系統(tǒng)制造商和云服務(wù)提供商處提供。H200輸出速度約H100的兩倍據(jù)介紹,NVIDIA H200是基于NVIDIA Hopper?架構(gòu),配備具有高級內(nèi)存的NVIDIA H200 Tensor Core GPU,可處理海量數(shù)據(jù),用于生成式AI和高性能計(jì)算工作負(fù)載。圖片來源:英偉達(dá)與H100相比,NVIDIA H200對Llama2模型的推理速度幾乎翻倍。
- 關(guān)鍵字: 英偉達(dá) H200 HBM3e HBM3
?英偉達(dá)介紹
您好,目前還沒有人創(chuàng)建詞條?英偉達(dá)!
歡迎您創(chuàng)建該詞條,闡述對?英偉達(dá)的理解,并與今后在此搜索?英偉達(dá)的朋友們分享。 創(chuàng)建詞條
歡迎您創(chuàng)建該詞條,闡述對?英偉達(dá)的理解,并與今后在此搜索?英偉達(dá)的朋友們分享。 創(chuàng)建詞條
關(guān)于我們 -
廣告服務(wù) -
企業(yè)會員服務(wù) -
網(wǎng)站地圖 -
聯(lián)系我們 -
征稿 -
友情鏈接 -
手機(jī)EEPW
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權(quán)所有 北京東曉國際技術(shù)信息咨詢有限公司
京ICP備12027778號-2 北京市公安局備案:1101082052 京公網(wǎng)安備11010802012473
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權(quán)所有 北京東曉國際技術(shù)信息咨詢有限公司
