新聞中心

EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 谷歌宣布公有云平臺將支持面向人工智能的TPU芯片

谷歌宣布公有云平臺將支持面向人工智能的TPU芯片

作者: 時間:2018-02-14 來源:至頂網(wǎng) 收藏

  今天宣布向其公有云平臺上增加ensor Processing Units,這是一款專門為人工智能工作負載提供動力的內(nèi)部設(shè)計的芯片系列。

本文引用地址:http://2s4d.com/article/201802/375851.htm


谷歌宣布公有云平臺將支持面向人工智能的TPU芯片


  一個(如圖所示)由四個專用集成電路組成,配有64GB的“超高帶寬”內(nèi)存。這一組合單元可以提供高達180 teraflops的性能。今年晚些時候,計劃增加一個集群選項,讓云客戶將多個聚合成一個“Pod”,速度達到petaflop的范圍(是teraflop的1000倍)。

  在今天的公告中并沒有分享更多的性能細節(jié)。不過,去年谷歌的兩位頂級工程師寫的一篇博客文章顯示,當時內(nèi)部使用的Pod包括64個,總吞吐為11.5 petaflops。相比之下,世界上功能最強大的超級計算機可以達到93 petaflops,但值得注意的是,谷歌很可能沒有使用相同的基準測試方法來測量TPU的速度。

  無論哪種方式,這些芯片都是Google云平臺的一個重要補充。當谷歌于去年4月首次向全世界展示TPU規(guī)格的時候,它透露該芯片至少可以運行某些機器學習工作負載,比現(xiàn)有的芯片快15至30倍。這就包括特別適合用于機器學習模型的GPU。GPU的主要制造商包括Nvidia和AMD公司,這兩家公司仍然是當今大多數(shù)項目的首選。

  因此,谷歌的云客戶應(yīng)該能夠更快速地培訓和運行他們的人工智能軟件。谷歌表示,一個TPU可用于在一天之內(nèi)實施主流ResNet-50圖像分類模型,達到可接受的精確度水平。

  谷歌已經(jīng)創(chuàng)建了幾個預(yù)先優(yōu)化的神經(jīng)網(wǎng)絡(luò)包,讓客戶可以將其運行在TPU上,其中包括一個ResNet-50版本,以及用于機器翻譯、語言建模和識別圖像內(nèi)物體的模型。企業(yè)客戶也可以使用谷歌的開源TensorFlow機器學習引擎創(chuàng)建自己的人工智能工作負載。

  喜歡使用傳統(tǒng)圖形卡進行人工智能項目的客戶,今天也看到了一項新的功能。谷歌為其Kubernetes Engine服務(wù)添加了GPU支持,以允許將機器學習模型打包到軟件容器中。后一種技術(shù)提供了一個輕量級抽象層,使開發(fā)人員能夠更輕松地推出更新并跨環(huán)境遷移應(yīng)用。

  這個新的TPU價格為每小時每單元6.50美元,而通過Kubernetes Engine租賃的GPU將按谷歌現(xiàn)有的每種支持芯片型號收費。

  這種芯片對于各種人工智能任務(wù)、特別是對于一些計算機工作負載而言的就緒情況,仍然不明確。Moor Insights&Strategy總裁兼首席分析師Patrick Moorhead表示:“TPU是一個很好的試水方式,但并一定適合于運行生產(chǎn)工作負載。GPU是進行訓練的最佳方式。鎖定到TPU,意味著被GCP和TensorFlow鎖定?!?/p>

  而且谷歌也不是唯一追求自主開發(fā)人工智能芯片的公司。芯片巨頭英特爾公司一直在推銷其最新用于人工智能工作負載的CPU,以及稱為FPGA的定制芯片。

  據(jù)The Information報道稱,亞馬遜公司正在開發(fā)自己的人工智能芯片,該芯片可以幫助其Echo智能音箱和其他使用其Alexa數(shù)字助理的硬件在設(shè)備上執(zhí)行更多處理任務(wù),以便它可以比調(diào)用云的響應(yīng)速度更快。



關(guān)鍵詞: 谷歌 TPU

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉