博客專欄

EEPW首頁(yè) > 博客 > ChatGPT加速登陸手機(jī)?OpenAI招募移動(dòng)終端團(tuán)隊(duì) 這些巨頭也在發(fā)力

ChatGPT加速登陸手機(jī)?OpenAI招募移動(dòng)終端團(tuán)隊(duì) 這些巨頭也在發(fā)力

發(fā)布人:科創(chuàng)板日?qǐng)?bào) 時(shí)間:2023-04-19 來(lái)源:工程師 發(fā)布文章
上周,OpenAI創(chuàng)始人阿爾特曼(Sam Altman)確認(rèn),現(xiàn)階段并沒(méi)有在訓(xùn)練GPT-5,“只是在GPT-4的基礎(chǔ)上進(jìn)行更多的工作”。

“更多的工作”有哪些?布局移動(dòng)端或是重要一環(huán)。

其公司招聘頁(yè)顯示,OpenAI正招募ChatGPT移動(dòng)終端工程經(jīng)理,“我們正在尋找一位經(jīng)驗(yàn)豐富的工程師來(lái)幫助建立和領(lǐng)導(dǎo)ChatGPT移動(dòng)團(tuán)隊(duì)?!痹擃I(lǐng)導(dǎo)崗位的年薪在30萬(wàn)美元至50萬(wàn)美元間,還包括“慷慨”的股權(quán)贈(zèng)與和員工福利。OpenAI的移動(dòng)端布局跨iOS和安卓,將招募安卓軟件工程師和iOS軟件工程師等。

圖片

圖片

圖源:OpenAI官網(wǎng)

此前,ChatGPT已經(jīng)試水移動(dòng)端。微軟于2月份宣布,iOS和安卓端的必應(yīng)搜索和Edge瀏覽器均已接入ChatGPT。

ChatGPT登陸移動(dòng)端無(wú)疑有利于觸達(dá)更多用戶。正如微軟所說(shuō),“如今有64%的搜索都發(fā)生在手機(jī)上?!?據(jù)調(diào)研機(jī)構(gòu)Gartner統(tǒng)計(jì),2022年全球電腦出貨2.862億臺(tái),手機(jī)出貨12.8億部。

另一方面,移動(dòng)設(shè)備廠商也有意引入AI應(yīng)用為硬件產(chǎn)品增加亮點(diǎn)。據(jù)紐約時(shí)報(bào)消息,三星電子考慮將其設(shè)備上的默認(rèn)搜索引擎由谷歌改為必應(yīng)。三星是目前全球出貨量第一的手機(jī)廠商,據(jù)估計(jì),谷歌與三星的合同關(guān)系到前者近30億美元的年收入。

不過(guò),以ChatGPT為代表的大模型應(yīng)用登陸移動(dòng)端將面臨計(jì)算資源、網(wǎng)絡(luò)資源、電量、儲(chǔ)存空間和信息安全受限等技術(shù)問(wèn)題。

以大模型的計(jì)算需求為例,GPT等模型龐大且計(jì)算資源要求高,而手機(jī)上沒(méi)有用來(lái)加速AI運(yùn)算的專業(yè)GPU,計(jì)算速度遠(yuǎn)不及電腦,且在移動(dòng)端運(yùn)行AI模型需要的大量計(jì)算也會(huì)迅速耗盡設(shè)備電量。

產(chǎn)業(yè)端已著手解決這些技術(shù)難題,高通、華為致力于實(shí)現(xiàn) AI 大模型在終端的輕量化部署,谷歌、騰訊、百度等已將模型壓縮技術(shù)緊密結(jié)合移動(dòng)端模型部署框架/工具。

3月2日,高通在MWC2023大會(huì)發(fā)布全球首個(gè)運(yùn)行在安卓手機(jī)上的Stable Diffusion終端側(cè)演示,Stable Diffusion模型參數(shù)超過(guò)10億,高通利用其AI軟件棧對(duì)模型進(jìn)行量化、編譯和硬件加速優(yōu)化,使其成功在搭載第二代驍龍8移動(dòng)平臺(tái)的手機(jī)上運(yùn)行。

華為新一代P60系列手機(jī)將于5月上線智慧搜圖功能,該功能通過(guò)對(duì)模型進(jìn)行小型化處理,實(shí)現(xiàn)其在端側(cè)輕量化應(yīng)用。

谷歌在2018年推出MLKit,核心功能Learn2Compress模型壓縮技術(shù)結(jié)合網(wǎng)絡(luò)剪枝、量化以及知識(shí)蒸餾三項(xiàng)技術(shù),可實(shí)現(xiàn)在CIFAR-10圖像分類測(cè)試任務(wù)中生成較NASNet尺寸縮小94倍的輕量化模型,且仍保持90%以上精度。

2018年騰訊推出全球首款自動(dòng)化深度學(xué)習(xí)模型壓縮框架PocketFlow,2022年百度開(kāi)源的文心ERNIE-Tiny在線蒸餾方案可得到參數(shù)規(guī)模僅為原模型0.02%且效果相當(dāng)?shù)妮p量級(jí)模型。

華泰證券分析師黃樂(lè)平認(rèn)為,模型壓縮技術(shù)可在保有大模型原有性能和精度基本不變前提下降低對(duì)推理算力的需求,是實(shí)現(xiàn)AI大模型在邊/端部署的核心技術(shù)。伴隨模型壓縮技術(shù)發(fā)展,AI將加速與終端設(shè)備融合應(yīng)用。



*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉