一張圖看懂AI、機器學習和深度學習的區(qū)別
AI(人工智能)是未來,是科幻小說,是我們日常生活的一部分。所有論斷都是正確的,只是要看你所談到的AI到底是什么。
本文引用地址:http://2s4d.com/article/201612/342177.htm例如,當谷歌DeepMind開發(fā)的AlphaGo程序打敗韓國職業(yè)圍棋高手Lee Se-dol,媒體在描述DeepMind的勝利時用到了AI、機器學習、深度學習等術語。AlphaGo之所以打敗Lee Se-dol,這三項技術都立下了汗馬功勞,但它們并不是一回事。
要搞清它們的關系,最直觀的表述方式就是同心圓,最先出現的是理念,然后是機器學習,當機器學習繁榮之后就出現了深度學習,今天的AI大爆發(fā)是由深度學習驅動的。
從衰敗到繁榮
1956年,在達特茅斯會議(Dartmouth Conferences)上,計算機科學家首次提出了“AI”術語,AI由此誕生,在隨后的日子里,AI成為實驗室的“幻想對象”。幾十年過去了,人們對AI的看法不斷改變,有時會認為AI是預兆,是未來人類文明的關鍵,有時認為它只是技術垃圾,只是一個輕率的概念,野心過大,注定要失敗。坦白來講,直到2012年AI仍然同時具有這兩種特點。
在過去幾年里,AI大爆發(fā),2015年至今更是發(fā)展迅猛。之所以飛速發(fā)展主要歸功于GPU的廣泛普及,它讓并行處理更快、更便宜、更強大。還有一個原因就是實際存儲容量無限拓展,數據大規(guī)模生成,比如圖片、文本、交易、地圖數據信息。
AI:讓機器展現出人類智力
回到1956年夏天,在當時的會議上,AI先驅的夢想是建造一臺復雜的機器(讓當時剛出現的計算機驅動),然后讓機器呈現出人類智力的特征。
這一概念就是我們所說的“強人工智能(General AI)”,也就是打造一臺超棒的機器,讓它擁有人類的所有感知,甚至還可以超越人類感知,它可以像人一樣思考。在電影中我們經常會看到這種機器,比如 C-3PO、終結者。
還有一個概念是“弱人工智能(Narrow AI)”。簡單來講,“弱人工智能”可以像人類一樣完成某些具體任務,有可能比人類做得更好,例如,Pinterest服務用AI給圖片分類,Facebook用AI識別臉部,這就是“弱人工智能”。
上述例子是“弱人工智能”實際使用的案例,這些應用已經體現了一些人類智力的特點。怎樣實現的?這些智力來自何處?帶著問題我們深入理解,就來到下一個圓圈,它就是機器學習。
機器學習:抵達AI目標的一條路徑
大體來講,機器學習就是用算法真正解析數據,不斷學習,然后對世界中發(fā)生的事做出判斷和預測。此時,研究人員不會親手編寫軟件、確定特殊指令集、然后讓程序完成特殊任務,相反,研究人員會用大量數據和算法“訓練”機器,讓機器學會如何執(zhí)行任務。
機器學習這個概念是早期的AI研究者提出的,在過去幾年里,機器學習出現了許多算法方法,包括決策樹學習、歸納邏輯程序設計、聚類分析(Clustering)、強化學習、貝葉斯網絡等。正如大家所知的,沒有人真正達到“強人工智能”的終極目標,采用早期機器學習方法,我們連“弱人工智能”的目標也遠沒有達到。
在過去許多年里,機器學習的最佳應用案例是“計算機視覺”,要實現計算機視覺,研究人員仍然需要手動編寫大量代碼才能完成任務。研究人員手動編寫分級器,比如邊緣檢測濾波器,只有這樣程序才能確定對象從哪里開始,到哪里結束;形狀偵測可以確定對象是否有8條邊;分類器可以識別字符“S-T-O-P”。通過手動編寫的分組器,研究人員可以開發(fā)出算法識別有意義的形象,然后學會下判斷,確定它不是一個停止標志。
這種辦法可以用,但并不是很好。如果是在霧天,當標志的能見度比較低,或者一棵樹擋住了標志的一部分,它的識別能力就會下降。直到不久之前,計算機視覺和圖像偵測技術還與人類的能力相去甚遠,因為它太容易出錯了。
深度學習:實現機器學習的技術
“人工神經網絡(Artificial Neural Networks)”是另一種算法方法,它也是早期機器學習專家提出的,存在已經幾十年了。神經網絡(Neural Networks)的構想源自于我們對人類大腦的理解——神經元的彼此聯系。二者也有不同之處,人類大腦的神經元按特定的物理距離連接的,人工神經網絡有獨立的層、連接,還有數據傳播方向。
例如,你可能會抽取一張圖片,將它剪成許多塊,然后植入到神經網絡的第一層。第一層獨立神經元會將數據傳輸到第二層,第二層神經元也有自己的使命,一直持續(xù)下去,直到最后一層,并生成最終結果。
每一個神經元會對輸入的信息進行權衡,確定權重,搞清它與所執(zhí)行任務的關系,比如有多正確或者多么不正確。最終的結果由所有權重來決定。以停止標志為例,我們會將停止標志圖片切割,讓神經元檢測,比如它的八角形形狀、紅色、與眾不同的字符、交通標志尺寸、手勢等。
神經網絡的任務就是給出結論:它到底是不是停止標志。神經網絡會給出一個“概率向量”,它依賴于有根據的推測和權重。在該案例中,系統有86%的信心確定圖片是停止標志,7%的信心確定它是限速標志,有5%的信心確定它是一支風箏卡在樹上,等等。然后網絡架構會告訴神經網絡它的判斷是否正確。
即使只是這么簡單的一件事也是很超前的,不久前,AI研究社區(qū)還在回避神經網絡。在AI發(fā)展初期就已經存在神經網絡,但是它并沒有形成多少“智力”。問題在于即使只是基本的神經網絡,它對計算量的要求也很高,因此無法成為一種實際的方法。盡管如此,還是有少數研究團隊勇往直前,比如多倫多大學Geoffrey Hinton所領導的團隊,他們將算法平行放進超級電腦,驗證自己的概念,直到GPU開始廣泛采用我們才真正看到希望。
回到識別停止標志的例子,如果我們對網絡進行訓練,用大量的錯誤答案訓練網絡,調整網絡,結果就會更好。研究人員需要做的就是訓練,他們要收集幾萬張、甚至幾百萬張圖片,直到人工神經元輸入的權重高度精準,讓每一次判斷都正確為止——不管是有霧還是沒霧,是陽光明媚還是下雨都不受影響。這時神經網絡就可以自己“教”自己,搞清停止標志的到底是怎樣的;它還可以識別Facebook的人臉圖像,可以識別貓——吳恩達(Andrew Ng)2012年在谷歌做的事情就是讓神經網絡識別貓。
吳恩達的突破之處在于:讓神經網絡變得無比巨大,不斷增加層數和神經元數量,讓系統運行大量數據,訓練它。吳恩達的項目從1000萬段YouTube視頻調用圖片,他真正讓深度學習有了“深度”。
到了今天,在某些場景中,經過深度學習技術訓練的機器在識別圖像時比人類更好,比如識別貓、識別血液中的癌細胞特征、識別MRI掃描圖片中的腫瘤。谷歌AlphaGo學習圍棋,它自己與自己不斷下圍棋并從中學習。
有了深度學習AI的未來一片光明
有了深度學習,機器學習才有了許多實際的應用,它還拓展了AI的整體范圍。 深度學習將任務分拆,使得各種類型的機器輔助變成可能。無人駕駛汽車、更好的預防性治療、更好的電影推薦要么已經出現,要么即使出現。AI既是現在,也是未來。有了深度學習的幫助,也許到了某一天AI會達到科幻小說描述的水平,這正是我們期待已久的。你會有自己的C-3PO,有自己的終結者。
評論