新聞中心

EEPW首頁 > 嵌入式系統(tǒng) > 業(yè)界動(dòng)態(tài) > IBM:模擬芯片可為機(jī)器學(xué)習(xí)加速1000倍

IBM:模擬芯片可為機(jī)器學(xué)習(xí)加速1000倍

作者: 時(shí)間:2019-02-18 來源:雷鋒網(wǎng) 收藏
編者按:人工智能或許能解決一些科學(xué)和行業(yè)最棘手的挑戰(zhàn),但要實(shí)現(xiàn)人工智能,需要新一代的計(jì)算機(jī)系統(tǒng)。IBM在博客中的一篇文章中指出,通過使用基于相變存儲(chǔ)器(Phase-Change Memory,簡稱PCM)的模擬芯片,機(jī)器學(xué)習(xí)可以加速一千倍。

  人工智能或許能解決一些科學(xué)和行業(yè)最棘手的挑戰(zhàn),但要實(shí)現(xiàn)人工智能,需要新一代的計(jì)算機(jī)系統(tǒng)。在博客中的一篇文章中指出,通過使用基于相變存儲(chǔ)器(Phase-Change Memory,簡稱PCM)的可以加速一千倍。

本文引用地址:http://2s4d.com/article/201902/397652.htm

  相變存儲(chǔ)器基于硫化物玻璃材料,這種材料在施加合適的電流時(shí)會(huì)將其相從晶態(tài)變?yōu)榉蔷B(tài)并可恢復(fù)。每相具有不同的電阻水平,在相位改變之前是穩(wěn)定的。兩個(gè)電阻構(gòu)成二進(jìn)制的1或0。

  PCM是非易失性的,訪問延遲與DRAM水平相當(dāng),他們都是存儲(chǔ)級(jí)內(nèi)存的代表。英特爾與美光聯(lián)合開發(fā)的3D XPoint技術(shù)就基于PCM。

  在博客中透露,為了實(shí)現(xiàn)AI真正的潛力,在紐約州立大學(xué)和創(chuàng)始合作伙伴成員的支持下,正在建立一個(gè)研究中心,以開發(fā)新一代AI硬件,并期待擴(kuò)展其納米技術(shù)的聯(lián)合研究工作。

  IBM Research AI硬件中心合作伙伴涵蓋半導(dǎo)體全產(chǎn)業(yè)鏈上的公司,包括IBM制造和研究領(lǐng)域的戰(zhàn)略合作伙伴三星,互聯(lián)解決方案公司Mellanox Technologies,提供仿真和原型設(shè)計(jì)解決方案軟件平臺(tái)提供商Synopsys,半導(dǎo)體設(shè)備公司Applied Materials和Tokyo Electron Limited(TEL)。

  還與紐約州奧爾巴尼的紐約州立大學(xué)理工學(xué)院主辦方合作,進(jìn)行擴(kuò)展的基礎(chǔ)設(shè)施支持和學(xué)術(shù)合作,并與鄰近的倫斯勒理工學(xué)院(RPI)計(jì)算創(chuàng)新中心(CCI)合作,開展人工智能和計(jì)算方面的學(xué)術(shù)合作。

  新的處理硬件

  IBM研究院的半導(dǎo)體和人工智能硬件副總裁Mukesh Khare表示,目前的限制可以通過使用新的處理硬件來打破,例如:

  數(shù)字AI核心和近似計(jì)算

  帶模擬內(nèi)核的內(nèi)存計(jì)算

  采用優(yōu)化材料的模擬核心

  


  圖1:IBM Research AI硬件中心制定的一個(gè)路線圖,在未來十年內(nèi)將AI計(jì)算性能效率提高1000倍,并提供數(shù)字AI核心和模擬AI核心管道。

  Mukesh Khare提到將深度神經(jīng)網(wǎng)絡(luò)(DNN)映射到模擬交叉點(diǎn)陣列(模擬AI核心)。它們?cè)陉嚵薪徊纥c(diǎn)處具有非易失性存儲(chǔ)器材料以存儲(chǔ)權(quán)重。

  DNN計(jì)算中的數(shù)值被加權(quán)以提高訓(xùn)練過程中決策的準(zhǔn)確性。

  這些可以直接用交叉點(diǎn)PCM陣列實(shí)現(xiàn),無需主機(jī)服務(wù)器CPU干預(yù),從而提供內(nèi)存計(jì)算,無需數(shù)據(jù)搬移。與英特爾XPoint SSD或DIMM等數(shù)字陣列形成對(duì)比,這是一個(gè)模擬陣列。

  PCM沿著非晶態(tài)和晶態(tài)之間的8級(jí)梯度記錄突觸權(quán)重。每個(gè)步驟的電導(dǎo)或電阻可以用電脈沖改變。這8級(jí)在DNN計(jì)算中提供8位精度。

  


  圖2:非易失性存儲(chǔ)器的交叉開關(guān)陣列可以通過在數(shù)據(jù)位置處執(zhí)行計(jì)算來加速完全連接的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。

  模擬存儲(chǔ)器芯片內(nèi)部的計(jì)算

  在IBM的研究報(bào)告中指出:

  “模擬非易失性存儲(chǔ)器(NVM)可以有效地加速”反向傳播(Backpropagation)“算法,這是許多最新AI技術(shù)進(jìn)步的核心。這些存儲(chǔ)器允許使用基礎(chǔ)物理學(xué)在這些算法中使用的“乘法-累加”運(yùn)算在模擬域中,在權(quán)重?cái)?shù)據(jù)的位置處并行化。

  “與大規(guī)模電路相乘并將數(shù)字相加在一起不同,我們只需將一個(gè)小電流通過電阻器連接到一根導(dǎo)線上,然后將許多這樣的導(dǎo)線連接在一起,讓電流積聚起來。這讓我們可以同時(shí)執(zhí)行許多計(jì)算,而不順序執(zhí)行。也不是在數(shù)字存儲(chǔ)芯片和處理芯片之間的傳輸數(shù)字?jǐn)?shù)據(jù),我們可以在模擬存儲(chǔ)芯片內(nèi)執(zhí)行所有計(jì)算 ?!?/p>

  


  圖3:我們的模擬AI內(nèi)核是性能效率內(nèi)存計(jì)算方法的一部分,通過消除與內(nèi)存之間的數(shù)據(jù)傳輸來突破所謂的馮·諾伊曼結(jié)構(gòu)瓶頸,從而提高了性能。深度神經(jīng)網(wǎng)絡(luò)被映射到模擬交叉點(diǎn)陣列,并且切換新的非易失性材料特性以在交叉點(diǎn)中存儲(chǔ)網(wǎng)絡(luò)參數(shù)。



評(píng)論


相關(guān)推薦

技術(shù)專區(qū)