新聞中心

EEPW首頁 > 市場分析 > 用于邊緣設(shè)備的AI為設(shè)備制造商營造機會

用于邊緣設(shè)備的AI為設(shè)備制造商營造機會

作者:Werner Goertz Annette Jump Alan Priestley 時間:2018-02-27 來源:電子產(chǎn)品世界 收藏
編者按:在持續(xù)完善機器學(xué)習(xí)模型和訓(xùn)練過程中,各種個人設(shè)備(如:移動設(shè)備、汽車和物聯(lián)網(wǎng))發(fā)揮著不可或缺的作用。著重闡述了個人設(shè)備在優(yōu)化深度學(xué)習(xí)架構(gòu)中發(fā)揮的關(guān)鍵作用。

作者 Werner Goertz Annette Jump Gartner個人科技團隊研究總監(jiān) Alan Priestley Gartner研究總監(jiān)

本文引用地址:http://2s4d.com/article/201802/376155.htm

摘要:在持續(xù)完善模型和訓(xùn)練過程中,各種(如:移動設(shè)備、汽車和物聯(lián)網(wǎng))發(fā)揮著不可或缺的作用。著重闡述了在優(yōu)化深度學(xué)習(xí)架構(gòu)中發(fā)揮的關(guān)鍵作用。

  傳統(tǒng)的包括兩個功能:訓(xùn)練和推理(運行時間)。訓(xùn)練模型(參見圖1)通過對比真實事件(例如,捕捉圖像中的對象)實現(xiàn)持續(xù)改進和完善。在傳統(tǒng)模型中,訓(xùn)練和推理完全在云中運行(圖1中左側(cè)的垂直箭頭)。然而,這種模式最終會遇到可擴展性問題,如:不可接受的延遲,依賴永遠在線的帶寬和數(shù)據(jù)隱私問題等。因此,一種新的架構(gòu)正在興起,處于網(wǎng)絡(luò)邊緣的設(shè)備在機器學(xué)習(xí)中扮演一定角色,尤其是在推理(右側(cè)垂直箭頭所示)方面。

  對于各種設(shè)備制造商而言,這種新的分布式架構(gòu)是很好的選擇。科技產(chǎn)品管理領(lǐng)導(dǎo)者必須了解這一新興趨勢,掌握能夠啟動設(shè)備,將推理放在邊緣上或設(shè)備中的組件和框架知識。現(xiàn)在,制定路線圖成為了必要條件,它將本地(人工智能)處理和價值創(chuàng)造考慮到其中。下列設(shè)備將受益于新架構(gòu)結(jié)構(gòu)的開發(fā),并成為設(shè)備層面的推理備選項:

  ● 支持虛擬個人助理的揚聲器(VPA-enabled speakers);

  ● 家庭網(wǎng)關(guān)(home gateways);

  ● 智能手機;

  ● 平板電腦/個人電腦;

  ● 家庭傳感器(home sensors)。

  在持續(xù)完善機器學(xué)習(xí)模型和訓(xùn)練過程中,各種(如:移動設(shè)備、汽車和物聯(lián)網(wǎng))發(fā)揮著不可或缺的作用。

  在本文中,我們著重闡了個人設(shè)備在優(yōu)化深度學(xué)習(xí)架構(gòu)中發(fā)揮的關(guān)鍵作用。

1 市場與分布式框架相融合

  領(lǐng)先的AI框架組合已經(jīng)成形,并正在支持AI組件的無縫集成。這些框架包括:

  ● TensorFlow/TensorFlow Lite:TensorFlow是Google的開源工具和軟件庫,旨在加速機器學(xué)習(xí)應(yīng)用的開發(fā)過程。2017年5月,TensorFlow Lite在Google I/O上推出。

  ● Caffe:Caffe是加州大學(xué)伯克利分校開發(fā)的獨立框架。Caffe也是一種開源框架,由全球貢獻者網(wǎng)絡(luò)提供支持。

  ● MXNet:Nvidia和Amazon是MXNet背后的推動力。Amazon Web Services(AWS)的客戶對該開源框架推崇有加。

2 運行中的邊緣AI

  如今,技術(shù)供應(yīng)商,特別是在智能家居領(lǐng)域的供應(yīng)商都在面向邊緣AI的未來格局設(shè)計相關(guān)產(chǎn)品,而基于機器學(xué)習(xí)的智能數(shù)據(jù)分析就是不錯的開端。此類典型產(chǎn)品包括:

  ● 聯(lián)網(wǎng)家庭中樞和Wi-Fi接入點的制造商Securifi已經(jīng)將其機器學(xué)習(xí)功能應(yīng)用于高端Almond路由器系列,“學(xué)習(xí)”聯(lián)網(wǎng)家庭設(shè)備的典型行為和流量模式;

  ● Speechmatics正在開發(fā)最終可以完全在設(shè)備上運行的自然語言處理技術(shù);

  ● Mojo Networks提供基于AI的工具以檢測Wi-Fi或有線網(wǎng)絡(luò)問題。

3 AI解決方案的開發(fā)需要個人設(shè)備供應(yīng)商考慮兩個發(fā)展階段

  除了確定AI解決方案的使用目的,在評估AI解決方案的部署情況時,技術(shù)產(chǎn)品管理領(lǐng)導(dǎo)者必須考慮兩個關(guān)鍵的開發(fā)階段,具體如下。

3.1 開發(fā)和訓(xùn)練AI模型/神經(jīng)網(wǎng)絡(luò)

  許多基于AI的項目利用基于數(shù)據(jù)中心的資源,開發(fā)和訓(xùn)練用戶與其個人設(shè)備互動的模型和神經(jīng)網(wǎng)絡(luò),從而從AI解決方案中獲益。利用數(shù)據(jù)中心資源的原因在于神經(jīng)網(wǎng)絡(luò)的初始模型必須經(jīng)過訓(xùn)練和“提升”,才能承擔(dān)預(yù)期的特定任務(wù),包括語音識別/響應(yīng)、語音翻譯或圖像識別。這通常要求模型能夠訪問大量的“已知”數(shù)據(jù)和運行模型的連續(xù)迭代,來確保提供正確結(jié)果。訓(xùn)練神經(jīng)網(wǎng)絡(luò)需要高性能的服務(wù)器驅(qū)動系統(tǒng),該系統(tǒng)能夠?qū)崿F(xiàn)極高的數(shù)據(jù)吞吐量,以保證模型的多次迭代在可控時間段內(nèi)運行。這些系統(tǒng)通常基于高性能x86微處理器,并輔以一系列圖形處理器(GPU),來加速神經(jīng)網(wǎng)絡(luò)算法的高度并行元素。

  在很大程度上,經(jīng)過訓(xùn)練的神經(jīng)網(wǎng)絡(luò)的可靠性取決于訓(xùn)練網(wǎng)絡(luò)的已知優(yōu)良數(shù)據(jù)。這將要求設(shè)備供應(yīng)商的技術(shù)產(chǎn)品管理領(lǐng)導(dǎo)者評估目前哪些數(shù)據(jù)可用,或能夠訪問哪些數(shù)據(jù)訓(xùn)練神經(jīng)網(wǎng)絡(luò);在可用數(shù)據(jù)不足的情況下,可以授權(quán)第三方數(shù)據(jù)集,或獲得預(yù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的訪問權(quán)限。使用預(yù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)可以最大限度地減少對高性能服務(wù)器基礎(chǔ)架構(gòu)的投資,而在訓(xùn)練階段處理大型數(shù)據(jù)集離不開這些基礎(chǔ)架構(gòu)。

  在開發(fā)和訓(xùn)練模型或神經(jīng)網(wǎng)絡(luò)之后,開發(fā)人員通常會優(yōu)化模型,以便在基于“未知”數(shù)據(jù)推斷新結(jié)果,即在供客戶使用之時,減少費用和等待時間。

3.2 確定如何有效地為客戶部署AI解決方案

  用于部署AI解決方案,根據(jù)未知數(shù)據(jù)推斷結(jié)果的選擇有多種:

  (1)云端部署

  對于許多開發(fā)人員而言,這將是很簡單的部署方案。開發(fā)人員能夠利用與開發(fā)神經(jīng)網(wǎng)絡(luò)相同的系統(tǒng)和技術(shù),這些系統(tǒng)已經(jīng)成為許多云服務(wù)中的“標(biāo)準(zhǔn)”產(chǎn)品。

  這種方法面臨的挑戰(zhàn)是大量原始數(shù)據(jù)必須傳遞到云端,以便神經(jīng)網(wǎng)絡(luò)做出響應(yīng)。這需要一個連續(xù)的高帶寬通信連接到云端,使用具有有線互聯(lián)網(wǎng)連接的設(shè)備,這一切將成為可能(例如智能家居設(shè)備和VPA)。然而,當(dāng)無法保證云端連接或帶寬有限時,此方法并不適用(例如蜂窩連接)。

  另一個必須考慮的因素是云服務(wù)處理輸入數(shù)據(jù),以及在合理時間內(nèi)做出響應(yīng)的能力,這就是所謂的延遲。人們對于在用戶心生不滿、轉(zhuǎn)而采用其它方法之前的合理系統(tǒng)響應(yīng)時間內(nèi)已開展了諸多研究。而且隨著AI系統(tǒng)被用于任務(wù)關(guān)鍵型/生命關(guān)鍵型決策,延遲將越來越重要(例如自主駕駛系統(tǒng))。

  在很多情況下,應(yīng)用程序延遲將是數(shù)據(jù)傳輸時間與神經(jīng)網(wǎng)絡(luò)原始執(zhí)行時間共同的結(jié)果。在任何時候,這兩種情況都會受到用戶數(shù)量的影響。在高峰期,網(wǎng)絡(luò)帶寬或云計算能力可能會限制性能。

  (2)個人設(shè)備

  通過訓(xùn)練神經(jīng)網(wǎng)絡(luò)和優(yōu)化推理模型,運行模型所需的處理資源一般遠遠少于訓(xùn)練階段所需的資源。這能夠使模型在更簡單的設(shè)備上運行,如:FPGA、專用神經(jīng)網(wǎng)絡(luò)芯片,甚至今天許多個人設(shè)備中使用的Arm處理器內(nèi)核。

  在個人設(shè)備中部署神經(jīng)網(wǎng)絡(luò)模型可以幫助開發(fā)人員解決依賴云服務(wù)造成的延遲和連接性挑戰(zhàn)。

  然而,將神經(jīng)網(wǎng)絡(luò)模型遷至設(shè)備本身也存在挑戰(zhàn)。首先,個人設(shè)備必須有足夠的資源運行神經(jīng)網(wǎng)絡(luò)模型和數(shù)據(jù)存儲,保存參考數(shù)據(jù),使其能夠根據(jù)新的未知輸入推斷答案。

  個人設(shè)備有各種設(shè)計限制。這些限制可能包括外形規(guī)格、電池壽命、功能性或大批量可制造性。因此,許多設(shè)備都采用定制AP(應(yīng)用處理器)設(shè)計,這些AP將設(shè)備的大部分功能集成到單個芯片上。定制AP的典型示例包括蘋果公司在其智能手機和平板電腦中使用的A系列處理器,以及用于智能手機的高通Snapdragon AP。專用微控制器也常用于外形尺寸較大的個人設(shè)備。所有這些半導(dǎo)體器件都旨在平衡性能要求與延長的電池壽命,即最低的設(shè)備功耗。

  許多開發(fā)AP的半導(dǎo)體供應(yīng)商正在評估能夠運行神經(jīng)網(wǎng)絡(luò)的額外功能模塊。其中一些模塊專用于特定的神經(jīng)網(wǎng)絡(luò)功能,例如圖像識別。其他模塊則提供更多的靈活性,以便開發(fā)人員根據(jù)自己的需求優(yōu)化神經(jīng)網(wǎng)絡(luò)。

  現(xiàn)在,許多IP公司提供可集成到AP設(shè)計中的數(shù)字信號處理器(DSP)、GPU和FPGA IP模塊——所有這些都可以提供運行神經(jīng)網(wǎng)絡(luò)模型所需的并行性。

  此外,一些公司正在開發(fā)專用的AI處理器。但大部分都還沒有上市,不過在此期間,這些公司還提出了將AI功能添加到個人設(shè)備上的另一個選項。但是,由于這些AI處理器通?;趯S械奶幚砥骷軜?gòu),提供完全集成的軟件堆棧可能具有挑戰(zhàn)性。因此,應(yīng)該進行全面的評價,評估收益與替代設(shè)計決策對比。

  使用標(biāo)準(zhǔn)個人電腦架構(gòu)的更復(fù)雜的個人設(shè)備可以選擇使用基于周邊設(shè)備互連高速(Peripheral Component Interconnect Express)的GPU或FPGA附加卡(FPGA add-in card)執(zhí)行神經(jīng)網(wǎng)絡(luò)功能。

  (3)兩者兼具

  對于許多應(yīng)用而言,由于性能、功耗和外形規(guī)格因素的限制,完全在個人設(shè)備上運行神經(jīng)網(wǎng)絡(luò)模型可能并不可行。在這種情況下,最好分離推理操作,在設(shè)備和云中的其它設(shè)備上進行操作。

  本文來源于《電子產(chǎn)品世界》2018年第3期第5頁,歡迎您寫論文時引用,并注明出處。



評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉