英偉達:機器人帶來芯片新需求
兩個月前,在臺北電腦展上,英偉達 CEO 黃仁勛驕傲地托起那塊不到巴掌大小的芯片:這就是未來智能機器人的“大腦”。
本文引用地址:http://2s4d.com/article/201809/391510.htm很多游戲粉絲聽說英偉達發(fā)了新卡,激動得去搜索相關(guān)的新聞,可看來看去,發(fā)布會上把「十年來最重要創(chuàng)新」、「全球首款光線追蹤 GPU」掛在嘴邊的老黃卻沒怎么提起新品在游戲上的應(yīng)用。游戲粉絲有些失望,核彈還是那個核彈,皮衣也還是那件皮衣,但發(fā)布會上屢屢提起、演示的關(guān)鍵詞卻并不是他們熟悉的 3A 大作了。
類似的情況也出現(xiàn)在顯卡測評的視頻里,當一位 up 主通過機器學習的訓練效果來講解 NVIDIA Titan V 顯卡的性能時,彈幕上馬上刷起了「聽不懂」、「在說啥」的聲音。
游戲粉絲們也許不是很買賬,但對英偉達而言,人工智能卻是這家以圖形和計算起家的半導體公司遇上的最好機會。在深度學習井噴式爆發(fā)的那幾年,擅長向量和矩陣運算的英偉達 GPU 被許多學者、研究員用來進行研究和訓練自己的算法模型,甚至 Google Brain 和吳恩達這樣頂級的人工智能研究團隊和科學家也在使用英偉達的設(shè)備,久而久之,英偉達也將自己的注意力轉(zhuǎn)移到了深度學習這一剛剛在產(chǎn)業(yè)里興起的領(lǐng)域。
不夠,還不夠智能
幾年下來,英偉達在人工智能領(lǐng)域有了自己的積累,它開始有了新的判斷,專注于底層算力的英偉達開始思考上層應(yīng)用的方向。
人工智能的第一階段,是開發(fā)自動化編程的軟件。第二階段,是將軟件應(yīng)用于行業(yè)的自動化,這種自動化帶來的效率提升會刺激原有的市場。在今年的臺北電腦展上,黃仁勛把人工智能的發(fā)展分為了三個階段,第三階段,是 AI 走出計算機,影響外部的世界。
依黃仁勛的定義,目前我們已經(jīng)處于人工智能發(fā)展的第二階段,即人工智能開始初步應(yīng)用于各行各業(yè)。
比如工廠里的人機協(xié)作,大型機械很容易在使用時誤傷到人,但如果給這些設(shè)備裝上傳感器,檢測身邊是否有人,實時作出是否要減速的判斷,在使用時就會安全許多。
再比如傳統(tǒng)的拆垛、堆垛設(shè)備,只要給設(shè)備加一個深度傳感器,它就能判斷出箱子的大小位置和重心,這時機器就能夠判斷出最佳操作位置,從而以最快的速度完成操作。
還有超市商場里,每天營業(yè)員都會在關(guān)門后花數(shù)個小時的時間整理、統(tǒng)計當天所剩貨品,現(xiàn)在市面上已經(jīng)有能夠完成點貨和理貨功能的機器人,這些設(shè)備能給店家省下不少的人力。
這些都是時下已經(jīng)投入使用的一些智能機器,但在英偉達高級軟件經(jīng)理李銘博士看來,這些智能是遠遠不夠的。
加一點智能進去,解決當前場景最急需的問題,看起來是個智能機械,但其實它對整個機器人本身的促進并沒有想象中那么大。
李銘博士認為,這些智能機器人普遍存在著一些問題:
第一,軟件成本上升太快,在安防、服務(wù)、工廠,不同的場景里有著不同的需求,體現(xiàn)在軟件編程上,軟件架構(gòu)的邏輯可能會全局推翻,這就導致了軟件開發(fā)的成本居高不下。
第二,具體到場景里,單個機械在應(yīng)用時還需要單獨的調(diào)試。以工業(yè)機器人的機械臂為例,在工廠里需要為車床量身調(diào)試,設(shè)置具體操作參數(shù),比如距離產(chǎn)線的距離,50cm 還是 60cm,10cm± 的誤差在生產(chǎn)線上是絕對不允許的。
第三,面對環(huán)境的變化適應(yīng)性差,比如工廠里的光線發(fā)生變化,比如室外可能會發(fā)生的各種意外,現(xiàn)有的機器人是無法應(yīng)對的。
第四,軟件更新,當功能有增加或者修改時,需要做很多額外的工作,比如改變程序的邏輯,甚至重新編程等等。
如前面黃仁勛提到人工智能的三個階段,智能從軟件開始,機器人從完成固定程序動作的普通機械,到今天「有一點點智能」的機器人,依賴的正是人工智能在各自行業(yè)的初步應(yīng)用。所以要解決以上這些智能機器的問題,還需要回到軟件的層面,回到人工智能身上。
機器該怎么學習?
人工智能的發(fā)展越來越抽象,越來越復(fù)雜。從早期簡單的是與否的判斷,到后來精準的識別,可以在復(fù)雜的場景里找出特定的目標,再到后來,出現(xiàn) AlphaGo 這樣可以做出主動的決策的 AI,甚至智能如 AlphaGo Zero,可以完全依靠自學實現(xiàn)快速成長??梢钥吹剑浖闹悄芩绞穷I(lǐng)先于我們常見的硬件智能的。
那么,人工智能在硬件上的部署遇到了哪些困難呢?
首先是計算力。硬件,尤其移動機器人上能夠搭載的計算力非常有限,這與 AlphaGo 這樣傾全公司算力訓練出來的 AI 不同。
人工智能經(jīng)過這么長時間的發(fā)展,在網(wǎng)絡(luò)的種類、復(fù)雜程度和處理的信息量上都發(fā)生了天翻地覆的變化。網(wǎng)絡(luò)種類上,從早期的 AlexNet 和 GoogleNet 到現(xiàn)在各種各樣的 GAN(生成對抗網(wǎng)絡(luò))以及各種深度強化學習的網(wǎng)絡(luò),它們各自網(wǎng)絡(luò)結(jié)構(gòu)都有不同,開發(fā)者在適應(yīng)最新的網(wǎng)絡(luò)上常常會遇到一些麻煩。
網(wǎng)絡(luò)變得越來越復(fù)雜,處理的信息量也在成倍地增長,算力需求越來越高的情況下,對搭載處理單元的體積有更多限制的機器人實際上存在著在智能水平上升級的障礙。
其次是訓練環(huán)境。對于 AlphaGo、DeepMind,科學家們可以設(shè)定一個基本規(guī)則,讓它永遠跑在計算機里,不停地訓練,技巧磨煉得越來越強大,但機器人的訓練卻遠遠沒有這么簡單。
在去年的 GTC 大會上,黃仁勛展示了加州大學伯克利分校的 AI 實驗室所做的曲棍球機器人實驗,在一個僅一米左右的直線上,伯克利的曲棍球機器人「艾達」足足試了 200 次才熟練地掌握了將球打入門框的技巧。
“這還只是曲棍球!”黃仁勛說道,“如果我想抬起一輛汽車呢?如果我想開門呢?如果我想讓機器人和醫(yī)生配合做手術(shù)呢?”
我們不可能讓機器這么學習。
這里,英偉達高級軟件經(jīng)理李銘博士指出,在使用深度強化學習對機器人進行訓練時,有三個主要的障礙。
第一,真實世界的訓練進程太過緩慢,并且成本昂貴。Google 的機器人實驗室曾經(jīng)用三個月的時間拿 14 臺機械手臂完成了 30 萬次的拾取動作的訓練,同時還配備了一整隊的工程師「鞍前馬后地照料」這些機器人。對其他公司或者普通研究人員而言,這樣的成本是完全負擔不起的。
第二,訓練的部分非常危險,可能會造成一定程度的損失。機器人在訓練時是直接與物理世界交互的,任何的碰撞都可能會導致機體的損傷,甚至可能會對訓練的「陪護」人員造成傷害。
第三,訓練環(huán)境的搭建非常耗時耗力。以自動駕駛為例,如果要訓練汽車在面對前面汽車追尾時的表現(xiàn),連日常生活中的數(shù)據(jù)都很難收集,更不要說搭建起類似的場景了。
NVIDIA 的答案
在今年臺北電腦展的發(fā)布會上,英偉達發(fā)布了 NVIDIA Isaac 機器人平臺,包含硬件、軟件和虛擬世界機器人模擬器的 NVIDIA Isaac。
同樣在這場發(fā)布會上,黃仁勛還發(fā)布了世界首臺專為機器人打造的處理器NVIDIA Jetson Xavier,他手托著這臺沒有巴掌大的計算機,面對媒體說道:“這就是未來智能機器人的大腦?!?/p>
Jetson Xavier 擁有超過 90 億個晶體管,可提供每秒 30 萬億次操作以上的性能,這一處理能力甚至比高性能的工作站還要強大。同時,Xavier 擁有 6 個高性能處理器,包括 1 個 Volta Tensor Core GPU、1 個 8 核 ARM64 CPU、2 個 NVDLA 深度學習加速器、1 個圖像處理器、1 個視覺處理器和 1 個視頻處理器。超高的計算能力讓可以直接部署在終端機器人上的 Jetson Xavier 能夠為機器人的感知和計算提供基礎(chǔ)算力的保障。
軟件上,Jetson Xavier 配備了一個工具箱,包含 API 工具包 Isaac SDK、智能機器加速應(yīng)用 Isaac IMX 以及高度逼真的虛擬仿真環(huán)境 Isaac Sim。
英偉達在 2017 年的 GTC 上首次發(fā)布了 Isaac 虛擬仿真環(huán)境的部分。只需要普通游戲引擎,開發(fā)者們就可以打造出一個非常仿真的虛擬環(huán)境,在這個 VR 世界里,開發(fā)者可以在其算力支持的條件下,對機器進行盡可能多、盡可能快的訓練,訓練完成后,機器可以直接部署到機器人上,完成物理世界里的測試。這樣一來就解決了訓練環(huán)境的諸多問題。
在英偉達看來,機器人終歸是要擁有超強的邊緣計算能力的,而目前遠遠超越現(xiàn)階段機器人應(yīng)用需求的 Jetson Xavier,正是為了下一代自主機器打造的 AI 計算芯片,在 Isaac 平臺的支持下,機器無處不在地助力我們?nèi)粘I罟ぷ?,提高整個社會的效率,終將在不久后成為現(xiàn)實。
評論