首頁  資訊  商機(jī)   下載  拆解   高校  招聘   雜志  會(huì)展  EETV  百科   問答  電路圖  工程師手冊(cè)   Datasheet  100例   活動(dòng)中心  E周刊閱讀   樣片申請(qǐng)
EEPW首頁 >> 主題列表 >> 大語言模型

國產(chǎn)大模型 DeepSeek-V3 開源:6710 億參數(shù)自研 MoE,性能和 GPT-4o 不分伯仲

  • 12 月 27 日消息,“深度求索”官方公眾號(hào)昨日(12 月 26 日)發(fā)布博文,宣布上線并同步開源 DeepSeek-V3 模型,用戶可以登錄官網(wǎng) chat.deepseek.com,與最新版 V3 模型對(duì)話。援引博文介紹,DeepSeek-V3 是一個(gè) 6710 億參數(shù)的專家混合(MoE,使用多個(gè)專家網(wǎng)絡(luò)將問題空間劃分為同質(zhì)區(qū)域)模型,激活參數(shù) 370 億,在 14.8 萬億 token 上進(jìn)行了預(yù)訓(xùn)練。多項(xiàng)評(píng)測(cè)成績超越 Qwen2.5-72B 和 Llama-3.1-405B 等開源模型,
  • 關(guān)鍵字: DeepSeek-V3  AI  大語言模型  人工智能  

AI“軍備競(jìng)賽”再提速!亞馬遜(AMZN.US)推出全新芯片陣列和大語言模型

  • 智通財(cái)經(jīng)獲悉,亞馬遜(AMZN.US)正在擴(kuò)大其人工智能產(chǎn)品陣容,推出了功能強(qiáng)大的新芯片陣列和大型語言模型,并稱其可以與主要競(jìng)爭(zhēng)對(duì)手競(jìng)爭(zhēng)。這家總部位于西雅圖的公司正在將數(shù)十萬個(gè)Trainium2半導(dǎo)體組裝成集群,這將使合作伙伴Anthropic更容易訓(xùn)練生成式人工智能和其他機(jī)器學(xué)習(xí)任務(wù)所需的大型語言模型。亞馬遜表示,新陣列將使這家初創(chuàng)公司目前的處理能力提高五倍。亞馬遜在其年度re:Invent大會(huì)上表示,云服務(wù)部門AWS于周二開始向客戶提供最新芯片。另外,亞馬遜首席執(zhí)行官Andy Jassy介紹了一款名為
  • 關(guān)鍵字: AI  亞馬遜  AMZN.US  芯片陣列  大語言模型  

Gartner:中國大語言模型價(jià)格戰(zhàn)推動(dòng)人工智能加速上云

  • Gartner研究表明,隨著時(shí)間的推移和價(jià)格的持續(xù)下降,以及云部署在敏捷性、創(chuàng)新速度和生態(tài)系統(tǒng)方面的優(yōu)勢(shì),中國企業(yè)的人工智能(AI)部署將逐步從本地轉(zhuǎn)向云端。Gartner預(yù)測(cè),到2027年,中國的全部AI推理工作負(fù)載中,基于云的工作負(fù)載占比將從前的20%上升至80%。Gartner高級(jí)研究總監(jiān)方琦表示:“多家中國生成式人工智能(GenAI)廠商,其大語言模型應(yīng)用編程接口(API)的推理成本已經(jīng)降低了90%以上,有力地推動(dòng)了企業(yè)地GenAI采用。企業(yè)數(shù)據(jù)和分析(D&A)領(lǐng)導(dǎo)者應(yīng)積極評(píng)估相關(guān)影響,并
  • 關(guān)鍵字: Gartner  大語言模型  價(jià)格戰(zhàn)  

加速基于 Arm Neoverse N2 的大語言模型推理

  • 人工智能 (AI) 正在眾多行業(yè)掀起浪潮,尤其是在大語言模型 (LLM) 問世后,AI 發(fā)展呈現(xiàn)井噴之勢(shì)。LLM 模型不僅極大改變了我們與技術(shù)的交互方式,并且在自然語言理解和生成方面展現(xiàn)出了驚人的能力。雖然 GPU 在訓(xùn)練生成式 AI 模型方面發(fā)揮了重要作用,但在推理領(lǐng)域,除了 GPU 和加速器之外,還有其他可行的選擇。長期以來,CPU 一直被用于傳統(tǒng)的 AI 和機(jī)器學(xué)習(xí) (ML) 用例,由于 CPU 能夠處理廣泛多樣的任務(wù)且部署起來更加靈活,因此當(dāng)企業(yè)和開發(fā)者尋求將 LLM 集成到產(chǎn)品和服務(wù)中時(shí),CPU
  • 關(guān)鍵字: Arm  Neoverse  大語言模型  

口袋 AI 設(shè)備 Rabbit R1 身陷負(fù)面漩渦:API 被曝漏洞,可暴露用戶信息

  • IT之家 6 月 27 日消息,Rabbit R1 再次陷入輿論漩渦,繼 App 被批評(píng)套殼安卓,主推的大動(dòng)作模型 LAM 依賴 OpenAI 接口之外,其 API 被曝存在安全漏洞,有泄露用戶數(shù)據(jù)的風(fēng)險(xiǎn)。Rabbit R1 亮相于今年 CES 大展,其定位為口袋 AI 設(shè)備,這款產(chǎn)品擁有 2.88 英寸觸摸屏、一個(gè)可旋轉(zhuǎn)攝像頭和一個(gè)交互滾輪,搭載 Rabbit 自研操作系統(tǒng)。該設(shè)備最大的亮點(diǎn)在于內(nèi)置“大型操作模型(Large Action Model,LAM)”,堪稱“萬能應(yīng)用控制器”,無需使
  • 關(guān)鍵字: Rabbit R1  AI  大語言模型  

中國電信發(fā)布全球首個(gè)單體稠密萬億參數(shù)語義模型 Tele-FLM-1T

  • IT之家 6 月 19 日消息,中國電信人工智能研究院(TeleAI)和智源研究院聯(lián)合發(fā)布全球首個(gè)單體稠密萬億參數(shù)語義模型 Tele-FLM-1T,該模型與百億級(jí)的 52B 版本,千億級(jí)的 102B 版本共同構(gòu)成 Tele-FLM 系列模型。TeleAI 和智源研究院基于模型生長和損失預(yù)測(cè)等技術(shù),Tele-FLM 系列模型僅使用了業(yè)界普通訓(xùn)練方案 9% 的算力資源,基于 112 臺(tái) A800 服務(wù)器,用 4 個(gè)月完成 3 個(gè)模型總計(jì) 2.3T tokens 的訓(xùn)練。模型訓(xùn)練全程做到了零調(diào)整零重試
  • 關(guān)鍵字: LLM  AI  大語言模型  

ISEDA首發(fā)!大語言模型生成的代碼到底好不好使

  • 在大模型席卷一切、賦能百業(yè)的浪潮里,“碼農(nóng)”也沒能獨(dú)善其身。各種代碼自動(dòng)生成的大模型,似乎描繪了一個(gè)人人都能像資深工程師一樣寫代碼的美好未來。但在這個(gè)理想成為現(xiàn)實(shí)之前,有一個(gè)不能回避的問題 — 這些自動(dòng)生成的代碼真的有效嗎?大模型也會(huì)犯錯(cuò),我們肯定不希望把看似正確的錯(cuò)誤結(jié)果交給用戶,所以需要一個(gè)能精確驗(yàn)證模型生成答案的考官。近期,芯華章提出了一種對(duì)大模型生成代碼形式化評(píng)估的方法,稱為FormalEval。它能自動(dòng)化檢査生成代碼的質(zhì)量,無需手動(dòng)編寫測(cè)試用例。經(jīng)過測(cè)試,F(xiàn)ormalEval
  • 關(guān)鍵字: ISEDA  大語言模型  代碼生成  芯華章  

浪潮之下的大語言模型以及我國未來大語言模型的發(fā)展

  • 不知不覺之間,我們已經(jīng)距離ChatGPT引爆全網(wǎng)的爆發(fā)點(diǎn)已經(jīng)過去了一年多。隨著OpenAI證明了LLM(大語言模型)AI行得通之后,目前市場(chǎng)上的各類LLM 已經(jīng)如雨后春筍般爭(zhēng)搶涌出。不言自明,現(xiàn)在的大模型已經(jīng)成為AI領(lǐng)域的一個(gè)重要趨勢(shì)。據(jù)數(shù)據(jù),2023年,我國AI大模型行業(yè)市場(chǎng)規(guī)模為147億元,預(yù)計(jì)2024年將增長至216億元。隨著技術(shù)的不斷進(jìn)步和應(yīng)用場(chǎng)景的拓展,相信AI大模型將在未來發(fā)揮更加重要的作用,推動(dòng)中國人工智能產(chǎn)業(yè)的持續(xù)發(fā)展和創(chuàng)新。本篇文章,就重點(diǎn)針對(duì)我國以及全球的大語言模型的實(shí)力和其市場(chǎng)應(yīng)用情
  • 關(guān)鍵字: 202405  大語言模型  大模型  

消息稱軟銀計(jì)劃到 2025 年投資 1500 億日元,加速 AI 大模型開發(fā)

  • IT之家 4 月 23 日消息,據(jù)《日本經(jīng)濟(jì)新聞》報(bào)道,軟銀計(jì)劃到 2025 年投資 1500 億日元(IT之家備注:當(dāng)前約 70.2 億元人民幣),加速 AI 大模型的開發(fā)工作。軟銀 2023 年就在生成式 AI 算力基礎(chǔ)設(shè)施上進(jìn)行了 200 億日元(當(dāng)前約 9.36 億元人民幣)的投資,此次追加投資后整體投資規(guī)模將創(chuàng)下日本企業(yè)歷史第一。據(jù)悉,軟銀目標(biāo)在年內(nèi)完成 390B 參數(shù)模型的開發(fā),并在明年開始研發(fā)萬億參數(shù)級(jí)別的日語大模型。報(bào)道指出,日本企業(yè)中 NTT 和 NEC 等已跟進(jìn) AI 模型開
  • 關(guān)鍵字: 軟銀  AI  大語言模型  

華為等北京 24 家企事業(yè)單位聯(lián)合發(fā)起“大模型應(yīng)用產(chǎn)業(yè)聯(lián)合體”

  • IT之家 3 月 1 日消息,2 月 29 日下午,在中關(guān)村論壇系列活動(dòng)【第二屆北京人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展大會(huì)】大會(huì)上,華為、智譜 AI、百川智能、中國科學(xué)院自動(dòng)化研究所、中軟國際、首都在線、第四范式、格靈深瞳、中科創(chuàng)達(dá)、軟通動(dòng)力等北京 24 家企事業(yè)單位聯(lián)合發(fā)起“大模型應(yīng)用產(chǎn)業(yè)聯(lián)合體”。據(jù)介紹,“大模型應(yīng)用產(chǎn)業(yè)聯(lián)合體”依托華為鯤鵬硬底座和軟底座,共同探索人工智能生態(tài)合作模式,建立人工智能產(chǎn)業(yè)標(biāo)準(zhǔn),打造人工智能產(chǎn)業(yè)生態(tài),加速人工智能產(chǎn)業(yè)升級(jí)。華為打造的“AI 原生應(yīng)用引擎”平臺(tái)號(hào)稱已接入 30+主
  • 關(guān)鍵字: AI  智能計(jì)算  大語言模型  

語言大模型的進(jìn)化軌跡

  • ChatGPT 的發(fā)布是語言大模型(LLM)發(fā)展史的轉(zhuǎn)折點(diǎn),它讓人們意識(shí)到 LLM 的潛力,并引發(fā)了 “AI 競(jìng)賽”,世界上主要人工智能實(shí)驗(yàn)室和初創(chuàng)公司都參與其中。在這之后,基于 LLM 的聊天機(jī)器人層出不窮。1語言模型簡單來說,語言模型能夠以某種方式生成文本。它的應(yīng)用十分廣泛,例如,可以用語言模型進(jìn)行情感分析、標(biāo)記有害內(nèi)容、回答問題、概述文檔等等。但理論上,語言模型的潛力遠(yuǎn)超以上常見任務(wù)。想象你有一個(gè)完備的語言模型,可生成任意類型的文本,并且人們還無法辨別這些內(nèi)容是否由計(jì)算機(jī)生成,那么我們就可以使其完成
  • 關(guān)鍵字: 人工智能  LLM  大語言模型  

百川智能發(fā)布超千億參數(shù)大模型 Baichuan 3,號(hào)稱中文評(píng)測(cè)超越 GPT-4

  • IT之家 1 月 29 日消息,百川智能今日發(fā)布超千億參數(shù)的大語言模型 Baichuan 3,在 CMMLU、GAOKAO 和 AGI-Eval 等評(píng)測(cè)中,Baichuan 3 號(hào)稱在中文任務(wù)上超越了 GPT-4。在測(cè)試邏輯推理能力的 MCMLE、MedExam、CMExam 等醫(yī)療評(píng)測(cè)上,Baichuan 3 的中文效果同樣號(hào)稱超過了 GPT-4,是“中文醫(yī)療任務(wù)表現(xiàn)最佳的大模型”。據(jù)介紹,百川智能在 Baichuan 3 訓(xùn)練過程中提出了“動(dòng)態(tài)數(shù)據(jù)選擇”、“重要度保持”以及“異步 Check
  • 關(guān)鍵字: 人工智能  大語言模型  百川智能  

FPGA加速器支撐ChatGPT類大語言模型創(chuàng)新

  • 簡介:大語言模型近年來,大型語言模型(Large Language Models,LLM)徹底改變了自然語言處理領(lǐng)域,使機(jī)器能夠生成類似人類的文本并進(jìn)行有意義的對(duì)話。這些模型,例如OpenAI的GPT,擁有驚人的語言理解和生成能力。它們可以被用于廣泛的自然語言處理任務(wù),包括文本生成、翻譯、自動(dòng)摘要、情緒分析等。大語言模型通常是基于深度學(xué)習(xí)技術(shù)來構(gòu)建,特別是廣泛使用了transformer架構(gòu)。Transformer是一類神經(jīng)網(wǎng)絡(luò)模型,擅長捕捉語言序列中的遠(yuǎn)關(guān)聯(lián)關(guān)系,這使得它們非常適合于語言理解和生成任務(wù)。
  • 關(guān)鍵字: FPGA加速器  ChatGPT  大語言模型  

IBM企業(yè)云Watsonx上線Meta大語言模型Llama 2

  • 8月10日消息,當(dāng)?shù)貢r(shí)間周三IBM表示,計(jì)劃在旗下的企業(yè)級(jí)人工智能和數(shù)據(jù)平臺(tái)Watsonx上提供Meta開發(fā)的大語言模型Llama 2。IBM的Watsonx平臺(tái)能幫助企業(yè)將人工智能整合到工作流程中。這一最新舉措為Meta公司的一些客戶提供了試用Llama 2的機(jī)會(huì)。去年年底OpenAI發(fā)布的人工智能聊天機(jī)器人ChatGPT引起了消費(fèi)者和企業(yè)的廣泛興趣。自那以后,更多企業(yè)希望將人工智能引入工作流程,引入先進(jìn)功能的同時(shí)也有助于提高企業(yè)的工作效率。IBM表示,Watsonx提供Meta的開源人工智能模型之后,
  • 關(guān)鍵字: IBM  企業(yè)云  Watsonx  Meta  大語言模型  Llama 2  
共14條 1/1 1

大語言模型介紹

您好,目前還沒有人創(chuàng)建詞條大語言模型!
歡迎您創(chuàng)建該詞條,闡述對(duì)大語言模型的理解,并與今后在此搜索大語言模型的朋友們分享。    創(chuàng)建詞條

大語言模型專欄文章

更多

熱門主題

樹莓派    linux   
關(guān)于我們 - 廣告服務(wù) - 企業(yè)會(huì)員服務(wù) - 網(wǎng)站地圖 - 聯(lián)系我們 - 征稿 - 友情鏈接 - 手機(jī)EEPW
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權(quán)所有 北京東曉國際技術(shù)信息咨詢有限公司
備案 京ICP備12027778號(hào)-2 北京市公安局備案:1101082052    京公網(wǎng)安備11010802012473