新聞中心

EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 深度學(xué)習(xí)框架只為GPU? 答案在這里

深度學(xué)習(xí)框架只為GPU? 答案在這里

作者: 時間:2018-03-16 來源:知 IN 收藏

  目前大多數(shù)的機器學(xué)習(xí)是在處理器上完成的,大多數(shù)機器學(xué)習(xí)軟件會針對進行更多的優(yōu)化,甚至有人認(rèn)為學(xué)習(xí)加速必須在上才能完成,但事實上無論是運行機器學(xué)習(xí)的處理器還是優(yōu)化的框架,都不單只針對,代號為“Skylake”的英特爾至強SP處理器就證明了這一點。

本文引用地址:http://2s4d.com/article/201803/376990.htm

  機器學(xué)習(xí)軟件在英特爾至強SP系列白金版上的一系列基準(zhǔn)測試性能表現(xiàn)與在GPU上非常相近,了解了底層架構(gòu)之后,我們可以看到,在性能如此接近的情況下,使用GPU加速器更像是在購買一種“奢侈品”,用戶在GPU以外還有很多其他的選擇。毫無疑問,在用戶只需要機器學(xué)習(xí)的情況下,“加速器”在性能和能耗方面更有優(yōu)勢,大多數(shù)人需要的不只是一臺“智能的用于機器學(xué)習(xí)的服務(wù)器”,那就讓我們來重點看一下英特爾至強SP 白金級處理器為什么是最佳的選擇:

  CPU優(yōu)化框架和函數(shù)庫

  英特爾在基于GPU優(yōu)化的框架中增加了CPU優(yōu)化框架, 打破了深度學(xué)習(xí)框架偏重于GPU而忽視了CPU的行業(yè)現(xiàn)狀,解決了目前這些框架缺乏CPU優(yōu)化的實際問題。

  - TensorFlow由谷歌開發(fā),是一個領(lǐng)先的深度學(xué)習(xí)和機器學(xué)習(xí)框架,有面向Linux的處理器優(yōu)化

  - Caffe是圖片識別領(lǐng)域最受歡迎的應(yīng)用之一,英特爾提供的優(yōu)化可以在CPU運行時提高Caffe的性能

  - Torch是當(dāng)下流行的深度學(xué)習(xí)框架,需要在優(yōu)化的CPU上應(yīng)用,可以通過英特爾軟件優(yōu)化(比如英特爾至強可擴展處理器)提高Torch在CPU上的性能

  - Theano是一個開源的Python庫,很受機器學(xué)習(xí)程序員的歡迎,它可以幫助程序員高效地定義、優(yōu)化和評估涉及多維陣列的數(shù)學(xué)表達(dá)式

  - Neon是一個基于Python的深度學(xué)習(xí)框架,目的是在現(xiàn)代深度神經(jīng)網(wǎng)絡(luò)上實現(xiàn)易用性和可擴展性,并致力于在所有硬件上實現(xiàn)性能的最大化

  - MXNet是一個開源的深度學(xué)習(xí)框架

  - Python及其函數(shù)庫是機器學(xué)習(xí)應(yīng)用里最受歡迎的基礎(chǔ)組成,Python加速版過去幾年里得到了廣泛應(yīng)用,并且可以直接下載或通過Conda、yum、apt-get或Docker images下載

  - BigDL是一個面向Apache Spark的分布式深度學(xué)習(xí)函數(shù)庫。通過BigDL用戶可以把自己的深度學(xué)習(xí)應(yīng)用當(dāng)作標(biāo)準(zhǔn)Apache Spark程序來編寫,直接在現(xiàn)有Apache Spark或Hadoop集群上運行。在Torch基礎(chǔ)上開發(fā)的BigDL可以為深度學(xué)習(xí)提供綜合性支持:包括數(shù)值計算(通過Tensor)和高級神經(jīng)網(wǎng)絡(luò);此外用戶還可以利用BigDL把提前訓(xùn)練的Caffe或Torch模型載入Spark程序。英特爾曾聲稱在一個單節(jié)點至強處理器上(例如與GPU相比),BigDL中的處理速度比原始開源Caffe、Torch或TensorFlow要高一個數(shù)量級

  - 英特爾MKL-DNN是一個開源的、性能強化的函數(shù)庫,用于加速在CPU上的深度學(xué)習(xí)框架

  - 英特爾數(shù)據(jù)分析加速庫(DAAL)是一個包含了被優(yōu)化的算法構(gòu)建模塊的開源函數(shù)庫,針對大數(shù)據(jù)問題最相關(guān)的數(shù)據(jù)分析階段。這個函數(shù)庫適用于當(dāng)下流行的數(shù)據(jù)平臺,包括Hadoop、Spark、R和Matlab

  結(jié)果證明了一切,無論是TensorFlow、Caffe,還是Torch、Theano,這些深度學(xué)習(xí)框架都針對英特爾數(shù)學(xué)核心函數(shù)庫(Intel MKL)和英特爾高級矢量擴展指令集(Intel AVX)進行了優(yōu)化。通過CPU優(yōu)化,TensorFlow和Caffe基準(zhǔn)測試中的CPU性能分別提高了72倍和82倍。

  機器學(xué)習(xí)加速器

  科技與行業(yè)的發(fā)展都是瞬息萬變的,機器學(xué)習(xí)的加速器也會從GPU轉(zhuǎn)向FPGA、ASIC等等,除非我們永遠(yuǎn)只需要一臺只能用于機器學(xué)習(xí)的服務(wù)器,只要在一臺服務(wù)器上想實現(xiàn)可以支持各種的工作負(fù)載,英特爾至強可擴展處理器無疑是最佳的解決方案。加速器的選擇正在變得多元化,這是整個行業(yè)的發(fā)展趨勢,多核CPU(英特爾至強融核處理器,特別是“Knights Mill”版)和FPGA(英特爾至強處理器,包含Intel/Altera FPGA)都可以提供更靈活的選擇、卓越的性價比和高能效?;谟⑻貭栔翉娙诤颂幚砥饔?xùn)練或?qū)W習(xí)一個AlexNet圖片分類系統(tǒng)的速度,是使用NVIDIA GPU的類似配置系統(tǒng)的2.3倍;英特爾至強融核處理器的性價比最高可以是GPU解決方案的9倍,每瓦性能高達(dá)8倍,英特爾Nervana將推出更多專為人工智能開發(fā)的產(chǎn)品。英特爾至強SP系列處理器為機器學(xué)習(xí)提供了卓越的性能,同時相比其他解決方案也為我們帶來了更多的功能與選擇,讓我們在產(chǎn)品與行業(yè)的發(fā)展中都可以擁有更多可能。



關(guān)鍵詞: 深度學(xué)習(xí) GPU

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉