大咖觀點(diǎn) | 在大模型時(shí)代推動(dòng)智能視覺(jué)技術(shù)的發(fā)展
作者:Arm 物聯(lián)網(wǎng)事業(yè)部業(yè)務(wù)拓展副總裁 馬健
本文引用地址:http://2s4d.com/article/202408/461974.htm(鳴謝 Arm 工程部計(jì)算視覺(jué)主任架構(gòu)師 Catherine Wang 對(duì)本文內(nèi)容的貢獻(xiàn))
語(yǔ)言學(xué)和認(rèn)知科學(xué)的先驅(qū) Noam Chomsky 曾經(jīng)說(shuō)過(guò),人類語(yǔ)言在動(dòng)物世界中是獨(dú)一無(wú)二的。如今,隨著諸如 GPT-3.5、GPT-4.0 和 Bert 等大語(yǔ)言模型 (LLM) 和生成式人工智能 (AI) 的迅猛發(fā)展,機(jī)器已經(jīng)開(kāi)始能夠理解人類語(yǔ)言,這極大地?cái)U(kuò)展了機(jī)器可行使的功能。由此也引發(fā)了人們的思考:接下來(lái)技術(shù)會(huì)如何發(fā)展?
智能的演進(jìn)塑造全新計(jì)算范式
要預(yù)測(cè) AI 的未來(lái)發(fā)展方向,我們只需反觀人類自身。我們通過(guò)感官、思想和行動(dòng)的相互動(dòng)態(tài)作用來(lái)改變世界。這個(gè)過(guò)程包括感知周圍世界、處理信息,并在深思熟慮后作出回應(yīng)。
在計(jì)算技術(shù)的發(fā)展歷程中,我們目睹了曾經(jīng)是人類獨(dú)有的感知、思考和行動(dòng)等能力,逐漸被機(jī)器所掌握。每一次能力的轉(zhuǎn)移都將催生出新的范式。
20 世紀(jì)末,像 Google 這樣的大公司將信息獲取成本從邊際成本轉(zhuǎn)變?yōu)楣潭ǔ杀?,具體點(diǎn)說(shuō)就是,Google 投入資金來(lái)抓取網(wǎng)絡(luò)和索引信息,但對(duì)于我們每個(gè)搜尋信息的用戶來(lái)說(shuō),投入的成本幾乎可以忽略不計(jì)。機(jī)器開(kāi)始成為我們的信息系統(tǒng)。這開(kāi)啟了互聯(lián)網(wǎng)時(shí)代及其后續(xù)的移動(dòng)互聯(lián)網(wǎng)時(shí)代,改變了人們獲取、傳播和分享信息的方式,并對(duì)商業(yè)、教育、娛樂(lè)、社交等多個(gè)領(lǐng)域產(chǎn)生了深遠(yuǎn)的影響。
現(xiàn)在,我們正見(jiàn)證技術(shù)發(fā)展的新轉(zhuǎn)折,思考、推理和模型構(gòu)建的能力正從人類轉(zhuǎn)移到機(jī)器上。OpenAI 和大模型將生產(chǎn)模型的成本從邊際成本轉(zhuǎn)變?yōu)楣潭ǔ杀尽?/p>
大模型已經(jīng)通過(guò)來(lái)自互聯(lián)網(wǎng)的大量文本、圖像和視頻進(jìn)行了訓(xùn)練,這其中包含了法律、醫(yī)學(xué)、科學(xué)、藝術(shù)等各種領(lǐng)域的信息。這種廣泛的訓(xùn)練使得這些大模型可以作為基礎(chǔ)模型,用以更輕松地構(gòu)建其他模型。
無(wú)論是認(rèn)知模型(如何觀察和表達(dá))、行為模型(如何駕駛汽車),還是特定領(lǐng)域的模型(如何設(shè)計(jì)半導(dǎo)體芯片),這一轉(zhuǎn)折點(diǎn)必將激發(fā)各類模型的廣泛涌現(xiàn)。模型是知識(shí)的載體,這一轉(zhuǎn)折點(diǎn)將使模型和知識(shí)變得無(wú)處不在,使我們加速進(jìn)入新一輪的技術(shù)創(chuàng)新,迎來(lái)一個(gè)由自動(dòng)駕駛汽車、自主移動(dòng)機(jī)器人、人形機(jī)器人等多樣的機(jī)器及其在各行各業(yè)和各種部署場(chǎng)景中應(yīng)用的新時(shí)代。這些新范式將重新定義人機(jī)交互的方式。
多模態(tài) LLM 與視覺(jué)的關(guān)鍵作用
通過(guò) Transformer 模型及其自注意力機(jī)制,AI 可以真正實(shí)現(xiàn)多模態(tài),這意味著 AI 系統(tǒng)可以像人們一樣處理來(lái)自語(yǔ)音、圖像和文本等多種模式的輸入信息。
OpenAI 的 CLIP、DALL·E、Sora 和 GPT-4o 就是朝著多模態(tài)邁進(jìn)的一些模型。例如,CLIP 用于理解圖像與自然語(yǔ)言的配對(duì)數(shù)據(jù),從而在視覺(jué)和文本信息之間架起橋梁;DALL·E 旨在根據(jù)文本描述生成圖像,而 Sora 可以根據(jù)文本生成視頻,有望在未來(lái)成為全球性的模擬器。OpenAI 則將 GPT-4o 的發(fā)展往前更進(jìn)一步,OpenAI 綜合利用文本、視覺(jué)和音頻信息來(lái)端到端訓(xùn)練單個(gè)新模型 GPT-4o,無(wú)需進(jìn)行多媒體與文本的相互轉(zhuǎn)換。所有輸入和輸出都經(jīng)同一神經(jīng)網(wǎng)絡(luò)處理,使得模型能夠跨模態(tài)綜合音頻、視覺(jué)和文本信息進(jìn)行實(shí)時(shí)推理。
多模態(tài) AI 的未來(lái)將聚焦于邊緣側(cè)
得益于邊緣側(cè)硬件的進(jìn)步(許多邊緣硬件都是基于 Arm 平臺(tái)開(kāi)發(fā)設(shè)計(jì)的),同時(shí)也為了解決延遲問(wèn)題、隱私和安全需求、帶寬和成本考量,并確保在網(wǎng)絡(luò)連接間斷或無(wú)連接時(shí)能夠離線使用,AI 創(chuàng)新者在不斷突破模型的運(yùn)行邊界。Sam Altman 也曾坦言 [1] ,對(duì)于視頻(我們通過(guò)視覺(jué)感知到的內(nèi)容),要想提供理想的用戶體驗(yàn),端側(cè)模型至關(guān)重要。
然而,資源限制、模型大小和復(fù)雜性挑戰(zhàn)阻礙了多模態(tài) AI 向邊緣側(cè)的轉(zhuǎn)移。要想解決這些問(wèn)題,我們需綜合利用硬件進(jìn)步、模型優(yōu)化技術(shù)和創(chuàng)新的軟件解決方案,來(lái)促進(jìn)多模態(tài) AI 的普及。
近期的 AI 發(fā)展對(duì)計(jì)算機(jī)視覺(jué)產(chǎn)生了深遠(yuǎn)的影響,尤其令人關(guān)注。許多視覺(jué)領(lǐng)域研究人員和從業(yè)者正在使用大模型和 Transformer 來(lái)增強(qiáng)視覺(jué)能力。在大模型時(shí)代,視覺(jué)的重要性日益凸顯。原因有以下幾點(diǎn):
機(jī)器系統(tǒng)必須通過(guò)視覺(jué)等感知能力來(lái)了解周圍環(huán)境,為自動(dòng)駕駛和機(jī)器人提供關(guān)乎人身安全的必要安全性和避障能力??臻g智能是被譽(yù)為“AI 教母”的李飛飛等研究人員關(guān)注的熱門領(lǐng)域。
視覺(jué)對(duì)于人機(jī)交互至關(guān)重要。AI 伴侶不僅需要高智商,還需要高情商。機(jī)器視覺(jué)可以捕捉人類的表情、手勢(shì)和動(dòng)作,從而更好地理解人類的意圖和情感。
AI 模型需要視覺(jué)能力和其他傳感器來(lái)收集實(shí)際數(shù)據(jù)并適應(yīng)特定環(huán)境,隨著 AI 從輕工業(yè)延伸到數(shù)字化水平較低的重工業(yè),收集物理世界特征數(shù)據(jù)集,建立 3D 物理世界的仿真環(huán)境或數(shù)字孿生,并使用這些技術(shù)來(lái)訓(xùn)練多模態(tài)大模型,使模型可以理解真實(shí)的物理世界,這一點(diǎn)都尤為重要。
視覺(jué) + 基礎(chǔ)模型的示例
盡管 ChatGPT 因其出色的語(yǔ)言能力而廣受歡迎,但隨著主流的 LLM 逐漸演變成多模態(tài),將它們稱作“基礎(chǔ)模型”也許更為貼切。包括視覺(jué)等多種模態(tài)在內(nèi)的基礎(chǔ)模型領(lǐng)域正在快速發(fā)展。以下是一些例子:
DINOv2
DINOv2 是由 Meta AI 開(kāi)發(fā)的先進(jìn)自監(jiān)督學(xué)習(xí)模型,它基于原來(lái)的 DINO 模型打造,并已通過(guò)擁有 1.42 億張圖像的龐大數(shù)據(jù)集進(jìn)行了訓(xùn)練,這有助于提高它在不同視覺(jué)領(lǐng)域的穩(wěn)健性和通用性。DINOv2 無(wú)需專門訓(xùn)練就能分割對(duì)象。此外,它還能生成通用特征,適用于圖像級(jí)視覺(jué)任務(wù)(如圖像分類、視頻理解)和像素級(jí)視覺(jué)任務(wù)(如深度估計(jì)、語(yǔ)義分割),表現(xiàn)出卓越的泛化能力和多功能性。
Segment Anything 模型 (SAM)
SAM 是一種可推廣的分割系統(tǒng),可以對(duì)不熟悉的對(duì)象和圖像進(jìn)行零樣本泛化,而無(wú)需額外訓(xùn)練。它可以使用多種輸入提示詞來(lái)識(shí)別和分割圖像中的對(duì)象,以明確要分割的目標(biāo)。因此在遇到每個(gè)新對(duì)象或場(chǎng)景時(shí),它無(wú)需進(jìn)行特殊訓(xùn)練即可運(yùn)行。據(jù) Meta AI 介紹,SAM 可以在短短 50 毫秒內(nèi)生成分割結(jié)果,因此非常適合實(shí)時(shí)應(yīng)用。它具備多功能性,可應(yīng)用于從醫(yī)學(xué)成像到自動(dòng)駕駛等諸多領(lǐng)域。
Stable Diffusion
文生圖和文生視頻是生成式 AI 的一個(gè)重要方面,因?yàn)樗粌H能夠助力產(chǎn)生新的創(chuàng)意,還有望構(gòu)建一個(gè)世界模擬器,用來(lái)作為訓(xùn)練模擬、教育程序或視頻游戲的基礎(chǔ)。Stable Diffusion 是一個(gè)生成式 AI 模型,能夠根據(jù)文本描述創(chuàng)建圖像。該模型使用一種稱為潛在擴(kuò)散 (latent diffusion) 的技術(shù),在潛在空間 (latent space) 的壓縮格式中操作圖像,而不是直接在像素空間中操作,從而實(shí)現(xiàn)高效運(yùn)行。這種方法有助于減少計(jì)算負(fù)載,使模型能夠更快地生成高質(zhì)量圖像。
Stable Diffusion 已經(jīng)可以在智能移動(dòng)設(shè)備的邊緣側(cè)運(yùn)行。上圖是 Stable Diffusion 優(yōu)化過(guò)程的示例:
如果采用 Stable Diffusion 的原始設(shè)置,將不適合在移動(dòng)端 CPU 或 NPU 上運(yùn)行(基于 512×512 圖像分辨率)。
通過(guò)使用更小的 U-Net 架構(gòu)、更少的采樣步驟、切換到 ONNX 格式、應(yīng)用量化技術(shù)(從 FP32 到 INT8)和其他技術(shù),它僅在 CPU 上就實(shí)現(xiàn)了超過(guò) 60 倍的速度提升。其中許多優(yōu)化技術(shù)和工具都是基于 Arm 廣泛的生態(tài)系統(tǒng)所開(kāi)發(fā)的。該模型仍有進(jìn)一步優(yōu)化的空間。
借助多模態(tài) LLM 實(shí)現(xiàn)出色視覺(jué)體驗(yàn)
作為 Arm 的智能視覺(jué)合作伙伴計(jì)劃的一員,愛(ài)芯元智 (Axera) 利用其旗艦芯片組 AX650N 在邊緣側(cè)部署了 DINOv2 視覺(jué) Transformer。該芯片采用 Arm Cortex-A55 CPU 集群進(jìn)行預(yù)處理和后處理,結(jié)合愛(ài)芯通元混合精度 NPU 和愛(ài)芯智眸 AI-ISP,其具有高性能、高精度、易于部署和出色能效等特點(diǎn)。
以下展示了在 AX650N 上運(yùn)行 DINOv2 的效果:
通過(guò)使用多樣化大型數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練之后,視覺(jué) Transformer 可以更好地泛化到新任務(wù)和未見(jiàn)過(guò)的任務(wù),從而簡(jiǎn)化了再訓(xùn)練過(guò)程并縮短了調(diào)優(yōu)時(shí)間。它們可以應(yīng)用于圖像分類之外的多種任務(wù),例如對(duì)象檢測(cè)和分割,而無(wú)需進(jìn)行大量的架構(gòu)更改。
迎接 AI 和人機(jī)界面的未來(lái)
得益于 AI 和 LLM 的不斷發(fā)展,我們正處于技術(shù)和人類交互轉(zhuǎn)型的交會(huì)點(diǎn)。視覺(jué)會(huì)在這一演進(jìn)中起到關(guān)鍵作用,賦予了機(jī)器理解周圍環(huán)境以及在物理世界中“生存”的能力,可確保安全并增強(qiáng)交互性。在硬件和軟件快速發(fā)展的推動(dòng)下,向邊緣側(cè) AI 的轉(zhuǎn)變有望實(shí)現(xiàn)高效的實(shí)時(shí)應(yīng)用。
評(píng)論