新聞中心

EEPW首頁(yè) > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 深度學(xué)習(xí)的發(fā)展會(huì)帶給硬件架構(gòu)怎樣的影響?

深度學(xué)習(xí)的發(fā)展會(huì)帶給硬件架構(gòu)怎樣的影響?

作者: 時(shí)間:2019-02-25 來(lái)源:網(wǎng)絡(luò) 收藏
編者按:2019 ISSCC 大會(huì)于2月17—21日在美國(guó)舊金山開(kāi)幕,F(xiàn)acebook 首席 AI 科學(xué)家 Yann LeCun 在會(huì)上發(fā)表了主題演講「深度學(xué)習(xí)硬件:過(guò)去、現(xiàn)在和未來(lái)」,詳細(xì)介紹了深度學(xué)習(xí)研究的發(fā)展將如何影響未來(lái)硬件架構(gòu)。

  2019 ISSCC 大會(huì)于2月17—21日在美國(guó)舊金山開(kāi)幕,F(xiàn)acebook 首席 AI 科學(xué)家 Yann LeCun 在會(huì)上發(fā)表了主題演講「硬件:過(guò)去、現(xiàn)在和未來(lái)」,詳細(xì)介紹了研究的發(fā)展將如何影響未來(lái)硬件架構(gòu)。

本文引用地址:http://2s4d.com/article/201902/397900.htm

  如今,只要在網(wǎng)絡(luò)上搜索“”算法,都會(huì)顯示很多相關(guān)的信息,在過(guò)去的數(shù)十年里,人工智能已經(jīng)越來(lái)越成功地應(yīng)用于生物識(shí)別、語(yǔ)音識(shí)別、視頻識(shí)別、翻譯等。國(guó)內(nèi)更是誕生了諸如曠視科技、商湯科技、極鏈科技Video++、依圖科技等優(yōu)秀人工智能初創(chuàng)企業(yè)。設(shè)計(jì)人員將大量高度并行的計(jì)算加載到硬件上,尤其是最初為快速圖像渲染而開(kāi)發(fā)的圖形處理單元()。這些芯片特別適合于計(jì)算密集型“訓(xùn)練”階段,該階段使用許多經(jīng)過(guò)驗(yàn)證的例子來(lái)調(diào)整系統(tǒng)參數(shù)。在“推理”階段,其中部署深度學(xué)習(xí)處理的輸入,需要更大的存儲(chǔ)器訪問(wèn)和快速響應(yīng),目前已經(jīng)可以使用實(shí)現(xiàn)。

  深度學(xué)習(xí)與

  為了快速應(yīng)對(duì)增長(zhǎng)的需求,許多公司都正在開(kāi)發(fā)能夠直接賦予深度學(xué)習(xí)能力的硬件,迫切的需要進(jìn)行推理以及培訓(xùn)。近年來(lái)隨著深度學(xué)習(xí)的迅速發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network)被廣泛使用,特別是在圖像識(shí)別場(chǎng)景中的應(yīng)用。為了滿足更多場(chǎng)景應(yīng)用,需要有一種能夠根據(jù)實(shí)際場(chǎng)景需求替換不同CNN網(wǎng)絡(luò)模型的系統(tǒng)框架。在過(guò)去的20年里,視頻、游戲等產(chǎn)業(yè)推動(dòng)了GPU的進(jìn)步,其繪制圖形所需的矩陣正是深度學(xué)習(xí)所需的計(jì)算類型。

  GPU技術(shù)的進(jìn)步則是推動(dòng)了神經(jīng)網(wǎng)絡(luò)的發(fā)展,因?yàn)樵跊](méi)有GPU的情況下訓(xùn)練深度學(xué)習(xí)模型在大多數(shù)情況下會(huì)非常緩慢。許多人把生產(chǎn)中深度學(xué)習(xí)的想法想的過(guò)于復(fù)雜,我們可以在生產(chǎn)中使用CPU和選擇的網(wǎng)絡(luò)服務(wù)器進(jìn)行深入學(xué)習(xí)。生產(chǎn)中進(jìn)行訓(xùn)練是非常罕見(jiàn)的。即使你想每天更新你的模型權(quán)重,也不需要在生產(chǎn)中進(jìn)行訓(xùn)練。這意味著你只是在生產(chǎn)過(guò)程中進(jìn)行“推理”,比“培訓(xùn)”更快更容易。你可以使用任何你喜歡的Web服務(wù)器,并將其設(shè)置為簡(jiǎn)單的API調(diào)用。如果能夠有效地批量處理數(shù)據(jù),GPU只會(huì)提供更快的速度。

  GPU在處理圖形的時(shí)候,從最初的設(shè)計(jì)就能夠執(zhí)行并行指令,從一個(gè)GPU核心收到一組多邊形數(shù)據(jù),到完成所有處理并輸出圖像可以做到完全獨(dú)立。由于最初GPU就采用了大量的執(zhí)行單元,這些執(zhí)行單元可以輕松的加載并行處理,而不像CPU那樣的單線程處理。另外,現(xiàn)代的GPU也可以在每個(gè)指令周期執(zhí)行更多的單一指令。所以GPU比CPU更適合深度學(xué)習(xí)的大量矩陣、卷積運(yùn)算的需求。深度學(xué)習(xí)的應(yīng)用與其原先的應(yīng)用需求頗為類似。GPU廠家順理成章的在深度學(xué)習(xí),找到了新增長(zhǎng)點(diǎn)。

  深度學(xué)習(xí)發(fā)展是否出現(xiàn)“瓶頸”

  我們之所以使用GPU加速深度學(xué)習(xí),是因?yàn)樯疃葘W(xué)習(xí)所要計(jì)算的數(shù)據(jù)量異常龐大,用傳統(tǒng)的計(jì)算方式需要漫長(zhǎng)的時(shí)間。但如果未來(lái)深度學(xué)習(xí)的數(shù)據(jù)量有所下降,或者說(shuō)我們不能提供給深度學(xué)習(xí)所需要的足夠數(shù)據(jù)量,是否就意味著深度學(xué)習(xí)也要進(jìn)入“瓶頸”了呢?

  做深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練需要大量模型,然后才能實(shí)現(xiàn)數(shù)學(xué)上的收斂。深度學(xué)習(xí)要真正接近成人的智力,它所需要的神經(jīng)網(wǎng)絡(luò)規(guī)模非常龐大,它所需要的數(shù)據(jù)量,會(huì)比我們做語(yǔ)言識(shí)別、圖像處理要多得多。假設(shè)說(shuō),我們發(fā)現(xiàn)我們沒(méi)有辦法提供這樣的數(shù)據(jù),則很有可能出現(xiàn)瓶頸。

  目前,深度學(xué)習(xí)還在蓬勃發(fā)展往上的階段。比如我們現(xiàn)階段主要做得比較成熟的語(yǔ)音、圖像、視頻方面,整個(gè)的數(shù)據(jù)量還是在不斷的增多的,網(wǎng)絡(luò)規(guī)模也在不斷的變復(fù)雜。可以說(shuō)深度學(xué)習(xí)是GPU計(jì)算發(fā)展的關(guān)鍵,誰(shuí)能找到最適合深度學(xué)習(xí)的模式,誰(shuí)就是勝利者。

  結(jié)語(yǔ):

  深度學(xué)習(xí)經(jīng)過(guò)這么長(zhǎng)時(shí)間的發(fā)展,在網(wǎng)絡(luò)的種類、復(fù)雜程度和處理的信息量上都發(fā)生了天翻地覆的變化。當(dāng)前,網(wǎng)絡(luò)種類上,從早期的 AlexNet 和 GoogleNet 到現(xiàn)在各企業(yè)推出的 GAN以及各種深度強(qiáng)化學(xué)習(xí)的網(wǎng)絡(luò),它們各自網(wǎng)絡(luò)結(jié)構(gòu)都有不同,開(kāi)發(fā)者在適應(yīng)最新的網(wǎng)絡(luò)上常常會(huì)遇到一些麻煩。處理的信息量也在成倍地增長(zhǎng),算力需求越來(lái)越高的情況下,也將對(duì)搭載處理單元的硬件有著更高的要求。



關(guān)鍵詞: 深度學(xué)習(xí) GPU

評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉