新聞中心

EEPW首頁 > 嵌入式系統(tǒng) > 設(shè)計應(yīng)用 > 微控制器的AI進(jìn)化:從邊緣運算到智能化的實現(xiàn)

微控制器的AI進(jìn)化:從邊緣運算到智能化的實現(xiàn)

作者: 時間:2025-03-22 來源: 收藏

應(yīng)用正從云端逐漸向邊緣和終端設(shè)備擴展。 (MCU)作為嵌入式系統(tǒng)的核心,正在經(jīng)歷一場由驅(qū)動的技術(shù)變革。 傳統(tǒng)的MCU主要用于控制和管理硬件設(shè)備,但在時代,MCU不僅需要滿足傳統(tǒng)應(yīng)用的需求,還需具備處理AI任務(wù)的能力。

本文引用地址:http://2s4d.com/article/202503/468470.htm

滿足邊緣與終端設(shè)備的需求

(Edge Computing)是指將數(shù)據(jù)處理和計算任務(wù)從云端轉(zhuǎn)移到靠近數(shù)據(jù)源的設(shè)備上進(jìn)行。 這種方式能夠減少數(shù)據(jù)傳輸?shù)难舆t,提升系統(tǒng)的實時性和隱私保護(hù)。 邊緣設(shè)備通常資源有限,因此需要高效且低功耗的AI處理器來支持復(fù)雜的AI任務(wù)。

為了滿足邊緣與終端設(shè)備的需求,AI處理器需要具備以下特點:

● 低功耗:邊緣設(shè)備通常依賴電池供電,因此AI處理器必須在低功耗下運行。

● 高效能:AI任務(wù)如圖像識別、語音處理等需要高效的計算能力。

● 小型化:邊緣設(shè)備的空間有限,AI處理器需要高度集成且體積小巧。

● 實時性:許多邊緣應(yīng)用(如自動駕駛、工業(yè)控制)要求實時響應(yīng),AI處理器必須能夠快速處理數(shù)據(jù)。

傳統(tǒng)MCU主要用于控制任務(wù),而AI處理器則專注于數(shù)據(jù)處理和模型推理。 為了滿足邊緣設(shè)備的需求,現(xiàn)代MCU開始集成專用的AI加速器(如NPU,神經(jīng)網(wǎng)絡(luò)處理單元),以實現(xiàn)高效的AI運算。

物聯(lián)網(wǎng)事業(yè)部亞太區(qū)資深經(jīng)理黃晏祥指出,邊緣運算跟云端運算主要的差異應(yīng)該是應(yīng)用的最佳化vs.產(chǎn)品的泛用性,邊緣運算為了更接近使用場景,通常會有功耗與布建成本的局限性,因此效能與功耗的產(chǎn)品平衡與多重的選擇是最重要的。

例舉的 AI 處理器專注于實現(xiàn)高效能與低功耗的平衡,尤其是對邊緣與終端設(shè)備的特殊需求進(jìn)行優(yōu)化。 透過 Cortex系列處理器和Arm Ethos系列類神經(jīng)處理器,提供多樣化的解決方案,滿足不同應(yīng)用場景所需效能。 同時,也專注于提供靈活的軟硬件架構(gòu),以支持 AI 模型得以高效率的執(zhí)行,并加速產(chǎn)品上市進(jìn)程。

針對快速崛起的 AI 市場,Arm 積極布局 AI 處理器技術(shù),以滿足邊緣和終端設(shè)備的需求。 Arm 提供 Cortex-A、Cortex-M、Cortex-R 與Ethos NPU系列等處理器,這些處理器都可具備 AI 處理能力,可根據(jù)不同的應(yīng)用場景和需求選擇。 例如,Cortex-A系列適用于高性能計算,Cortex-M系列則針對低功耗和嵌入式應(yīng)用進(jìn)行了優(yōu)化。 在選擇處理器時,需要考量效能、功耗和成本等因素,才能做出最佳決策。

專為人工智能物聯(lián)網(wǎng)(AIoT)應(yīng)用設(shè)計的Arm Cortex-M52,是因應(yīng)更高的數(shù)碼信號處理和機器學(xué)習(xí)性能需求設(shè)計,無需負(fù)擔(dān)專門配置數(shù)字信號處理與機器學(xué)習(xí)加速器的成本。 Cortex-M52 能在低于目前市場的價位優(yōu)勢之上,充分發(fā)揮機器學(xué)習(xí)在嵌入式運算解決方案的潛能。

Arm Cortex-M85則為最高效能的Cortex-M處理器,采用Arm Helium技術(shù),提供Cortex-M系列處理器最高的純量、數(shù)字信號處理及機器學(xué)習(xí)效能。 并為需要特高效能和更高安全性的 Cortex-M 架構(gòu)的應(yīng)用提供自然升級路徑。

Cortex-M55 和 Cortex-M85 處理器支持 Helium 的處理器。 該項技術(shù)是 Arm Cortex-M 處理器系列的 M 系列向量擴充方案 (MVE)。

Arm 也積極與開發(fā)人員社區(qū)合作,提供開發(fā)工具、軟件庫和開放源代碼資源,幫助開發(fā)人員快速開發(fā)和部署 AI 應(yīng)用。 Arm Kleidi 庫,提供具有彈性的各種核心組合,協(xié)助在框架上強化人工智能。 Kleidi 技術(shù)已整合到主要的AI框架如 PyTorch 和 ExecuTorch,促使新一代的應(yīng)用在 Arm CPU 上運行大型語言模型(LLM)。 Kleidi 將繼續(xù)與 PyTorch 和 ExecuTorch 的各版本以及其他主要 AI 框架進(jìn)行整合。 從云端數(shù)據(jù)中心到邊緣端裝置,開發(fā)人員現(xiàn)在可以即刻在各類設(shè)備上基于 Arm 平臺高效率的運行高效能 AI 工作負(fù)載。


在傳統(tǒng)應(yīng)用與AI之間取得平衡

MCU在傳統(tǒng)應(yīng)用中主要負(fù)責(zé)控制和管理硬件設(shè)備,例如家電、工業(yè)自動化、汽車電子等。 這些應(yīng)用對MCU的要求包括:

● 穩(wěn)定性:系統(tǒng)必須穩(wěn)定可靠,能夠長時間運行。

● 實時性:需要快速響應(yīng)外部事件。

● 低功耗:許多應(yīng)用場景依賴電池供電,功耗必須盡可能低。

隨著AI技術(shù)的普及,MCU需要支持更多的AI功能,例如語音識別、圖像處理、預(yù)測性維護(hù)等。 這些功能對MCU的計算能力和存儲空間提出了更高的要求。 然而,MCU的資源有限,如何在傳統(tǒng)應(yīng)用與AI功能之間取得平衡成為一個關(guān)鍵問題。

為了在傳統(tǒng)應(yīng)用與AI功能之間取得平衡,MCU的設(shè)計可以采取以下策略:

● 模塊化設(shè)計:將AI功能作為可選模塊,用戶可以根據(jù)需求選擇是否啟用。

● 資源分配優(yōu)化:通過動態(tài)資源分配,確保傳統(tǒng)控制任務(wù)和AI任務(wù)都能獲得足夠的資源。

● 多核架構(gòu):采用多核設(shè)計,將傳統(tǒng)控制任務(wù)和AI任務(wù)分配到不同的核心上運行,避免資源競爭。

● 軟硬件協(xié)同設(shè)計:通過優(yōu)化硬件架構(gòu)和軟件算法,提升MCU的整體性能。

為了提升AI模型的運行效率,許多MCU開始整合專用的AI加速器。 這些加速器針對神經(jīng)網(wǎng)絡(luò)計算進(jìn)行了優(yōu)化,能夠大幅提升模型的推理速度。 例如,Arm的Cortex-M系列MCU已經(jīng)支持AI加速功能,能夠高效運行機器學(xué)習(xí)模型。

Arm主任應(yīng)用工程師林宜均指出,Arm 的 MCU 產(chǎn)品策略中結(jié)合了對傳統(tǒng)應(yīng)用的深厚技術(shù)基礎(chǔ),與對新興AI 技術(shù)發(fā)展的積極投入。 產(chǎn)品不僅支持傳統(tǒng)的低功耗嵌入式應(yīng)用,還加入了對 AI 推論的支持,尤其是在語音識別、影像處理和傳感器數(shù)據(jù)分析等場景。

新一代Armv8-M架構(gòu)為Cortex-M處理器帶來更強大的安全性和效能,可更加滿足未來MCU應(yīng)用的需求,包括AI功能的導(dǎo)入。 Arm Helium 技術(shù)是Arm Cortex-M處理器系列的M系列向量擴充方案(MVE)。 Helium 為 Armv8.1-M 架構(gòu)的延伸,可協(xié)助機器學(xué)習(xí) (ML) 與數(shù)字訊號處理 (DSP) 應(yīng)用大幅提升效能

在MCU產(chǎn)品中導(dǎo)入AI功能的同時,必須兼顧傳統(tǒng)應(yīng)用的需求,例如低功耗和實時性。 例如Arm 的 Cortex-M 系列處理器,它在提供 AI 處理能力的同時,也保持了低功耗的特性,適合應(yīng)用于各種嵌入式裝置。

軟件可以釋放硬件的效能與潛力。 Arm 除了提供硬件平臺之外,也提供軟件庫和開發(fā)工具,協(xié)助開發(fā)人員進(jìn)行軟件優(yōu)化。

為了滿足客戶于互聯(lián)網(wǎng)市場復(fù)雜且多樣化的設(shè)計,和署具有智能又安全的物聯(lián)網(wǎng)裝置,Arm提供物聯(lián)網(wǎng)參考設(shè)計平臺Arm Corstone系列,借此協(xié)助降低設(shè)計復(fù)雜度,并加快上市時程。 Corstone 提供大量軟件、IP 區(qū)塊,以及可配置和可修改的異質(zhì)化子系統(tǒng),以達(dá)到兼具效能與能源效率的目標(biāo)。 SoC 設(shè)計人員可使用Arm Corstone 作為框架,以可修改及可配置的異質(zhì)化子系統(tǒng)構(gòu)建SOC。 軟件開發(fā)人員可使用 Corstone 軟件組件和工具,在硬件準(zhǔn)備就緒之前就能開始開發(fā)軟件,大幅減少開發(fā)時的等待時間。

未來發(fā)展趨勢

未來,MCU將整合更高效的AI加速器,以支持更復(fù)雜的AI任務(wù)。 基于RISC-V架構(gòu)的AI加速器正在成為一個熱門研究方向。 隨著AI技術(shù)的普及,MCU將在更多領(lǐng)域得到應(yīng)用,例如智能家居、智慧城市、醫(yī)療設(shè)備等。 而AI開發(fā)生態(tài)也將更完善,開發(fā)工具和框架將更加成熟,幫助開發(fā)者更高效地實現(xiàn)AI功能。

MCU的計算能力和存儲空間有限,直接運行大型AI模型是不現(xiàn)實的。 因此,模型壓縮和量化成為優(yōu)化AI模型在MCU上運行效率的關(guān)鍵技術(shù)。

為了降低開發(fā)難度,許多廠商提供了專門的開發(fā)工具和生態(tài)系統(tǒng)。 例如TensorFlow Lite for MCUs是專為MCU設(shè)計的機器學(xué)習(xí)框架,能夠幫助開發(fā)者快速部署AI模型。 許多廠商還提供了豐富的示例代碼和開發(fā)文檔,進(jìn)一步降低了開發(fā)門檻。

結(jié)論

在AI時代面臨著新的挑戰(zhàn)和機遇。 透過整合AI處理器、優(yōu)化資源分配、壓縮和量化AI模型,MCU能夠在傳統(tǒng)應(yīng)用與AI功能之間取得平衡,并在邊緣與終端設(shè)備中發(fā)揮重要作用。 未來,隨著技術(shù)的不斷進(jìn)步,MCU將在更多領(lǐng)域?qū)崿F(xiàn)智能化,為AI的普及和應(yīng)用提供強大的支持。



關(guān)鍵詞: 微控制器 AI 邊緣計算 Arm

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉