新聞中心

EEPW首頁 > 高端訪談 > 詮釋AI(人工智能)的兩大特征:黑盒子與不確定性

詮釋AI(人工智能)的兩大特征:黑盒子與不確定性

作者:高煥堂 時間:2020-01-16 來源:電子產(chǎn)品世界 收藏

  高煥堂? (臺灣VR產(chǎn)業(yè)聯(lián)盟主席,廈門VR/AR協(xié)會榮譽會長兼顧問)
  摘? 要:擅長尋找大數(shù)據(jù)中的規(guī)律,其亮麗的表現(xiàn)已經(jīng)令人類嘆為觀止。在學(xué)習(xí)時,如果您能深刻掌握(Black box)和(Uncertainty),將更能發(fā)揮AI的專長來幫助人類。
  關(guān)鍵詞:AI;;

本文引用地址:http://2s4d.com/article/202001/409348.htm

  1 AI的長處

  當(dāng)今基于深度學(xué)習(xí)的AI(人工智能)非常擅長于:從大數(shù)據(jù)的復(fù)雜關(guān)系中尋找出人類難以得知的規(guī)則(規(guī)律性或法則)。人們對周遭大環(huán)境的隱藏規(guī)律太多未知,AI可以協(xié)助人們?nèi)ヌ剿魑粗?,補足人類的短處。
  那么,人們?yōu)槭裁葱枰狝I的助力呢? 因為人們常常只能觀察到小數(shù)據(jù),只能歸納出局部性的規(guī)律,然后從各個局部性規(guī)律中,抽象出原則(Principle),然后掌握原則,并相信它(原則)就代表全體規(guī)律,乃是恒久不變之“道”。
  如今,AI逐漸打破了這項數(shù)千年來的迷思。AI迅速掌握全體大數(shù)據(jù),迅速找出全體新規(guī)律,顛覆人類所相信的原則。于是,擅于借助于AI者就可得到新規(guī)律來引領(lǐng)大潮流。反之,不擅于借助AI者,堅守舊原則,就很可能成為沒落貴族了。
  雖然AI擅長從“小范圍大數(shù)據(jù)”中找規(guī)律;但是人類則擅長在“小數(shù)據(jù)”中找規(guī)律,又能舉一反三,應(yīng)用于“大范圍”上。兩者互補且相輔相成。
  例如,在商業(yè)競爭環(huán)境中,AI可以幫企業(yè)取得相關(guān)產(chǎn)業(yè)的全域最佳解(Global optima),輕易地打敗傳統(tǒng)(無AI)的企業(yè)競爭者,因為這些傳統(tǒng)企業(yè)只能憑借人的視野和經(jīng)驗,只能取得局部最佳解(Localoptima)。

  2 AI的兩項特征:&

  AI有兩項特性:①黑箱式推理;②不確定行為。當(dāng) 今AI技術(shù)是基于算法和大數(shù)據(jù)相關(guān)性(Correlation)而進行歸納推理,屬于低階因果關(guān)系的推理(如圖1)。

微信截圖_20200210110514.png

  基于底層的算法,搭配歸納推理能力,AI能夠從大數(shù)據(jù)的復(fù)雜關(guān)系中找出規(guī)則(規(guī)律性或法則),并進行預(yù)測(如圖2)。

微信截圖_20200210110521.png

  依循AI自己找出的規(guī)則,就能針對應(yīng)用資料來進行預(yù)測或判斷,并且輸出結(jié)果(如圖3)。

微信截圖_20200210110603.png

  由于AI尋覓出來的規(guī)則,只能以成千上億個數(shù)字表示,成為無(文)字天書。讓人們對其判斷理由無從理解(Incomprehensibility),且對其推理過程無法解釋(Inexplainability),所以稱之為:黑盒子(如圖4)。

微信截圖_20200210110645.png

  同時,常常因為訓(xùn)練數(shù)據(jù)的偏差或算法參數(shù)設(shè)定等,都會讓AI產(chǎn)生意外的結(jié)果,讓人們捉摸不定其行為,通稱為:AI不確定性(Uncertainty of AI)。
  3 AI的兩層規(guī)則(Rules)
  關(guān)于AI與規(guī)則的關(guān)系,首先從AI的算法說起,什么是AI的算法呢?

   “算法”是人們給予AI機器的規(guī)則(Rules)。這種規(guī)則是媽媽層級的規(guī)則(Meta-rules),成為AI的底層框架,此框架支撐AI的歸納性能力,能夠從大數(shù)據(jù)中找出規(guī)則(規(guī)律性或法則),就生出兒女層級的規(guī)則(如圖5)。

微信截圖_20200210110704.png

  因為是歸納法,所以媽媽如何生出兒女,其過程是黑盒子。當(dāng)AI訓(xùn)練完畢,投入實際應(yīng)用時,是依循兒女層級的規(guī)則而執(zhí)行。所以,人們常常無法充分掌控AI的行為。
  也許您會認(rèn)為算法能充分掌控AI的行為。其實不然,掌控得了媽媽,并不一定能掌控其兒女,因此人們常常無法充分理解和解釋AI行為的背后理由。
  當(dāng)今的AI神經(jīng)網(wǎng)絡(luò)(NN)受人腦的啟發(fā),一個神經(jīng)網(wǎng)絡(luò)類似于大腦中神經(jīng)元的連接系統(tǒng),由成千上萬個微小的神經(jīng)元連接,經(jīng)由一系列數(shù)學(xué)計算,形成數(shù)百萬個復(fù)雜而微小變化的連結(jié),人類無法精準(zhǔn)地確定正在發(fā)生的連接結(jié)果,只會得到1個輸出的結(jié)果。
  這種“輸入數(shù)據(jù)和答案之間的不可觀察的空間”,通稱為黑盒子。在AI領(lǐng)域常拿這個名詞來描述神經(jīng)網(wǎng)絡(luò)的內(nèi)心深處如何在“暗處”運作的神秘景象。對于人類來說,至今仍然太難理解了。
  4 舉例說明:從傳統(tǒng)IT邁向AI

  4.1 傳統(tǒng)IT:人們把規(guī)則寫入電腦

  人們最常見的迷思是:延續(xù)傳統(tǒng)IT思維,想把自己心中的規(guī)則輸入給AI。例如,當(dāng)您想讓AI來進行二進位的加法運算——如(011)和(011)兩數(shù)相加。在傳統(tǒng)IT里,您會利用程序(如Python)的“編程邏輯”來把心中的規(guī)則表達(dá)于Python程序碼里,經(jīng)過編譯(Compile)、連結(jié)(Link)之后,載入到電腦里。例如,計算二進位的 (011)和(011)相加時,您會運用二進位加法的基本規(guī)則是:個位數(shù)1和1相加,得到0,且進位 1。下一位則是:1和1和進位1相加,得到1,且進位 1。再下一位則是:0和0和進位1相加,得 到1。于是,得到結(jié)果是:二進位的110。然后,寫成Python程序碼來表達(dá)之:

微信截圖_20200210110721.png

  此時您需要編程技能和嚴(yán)密的程序邏輯。所以,在傳統(tǒng)小數(shù)據(jù)時代的IT邏輯編程,是讓人類表達(dá)其心中的規(guī)則,以程序碼敘述出來,植入到電腦中,讓電腦替人類快速執(zhí)行(規(guī)則)。所以,您需要努力學(xué)習(xí)編程;然而那是傳統(tǒng)IT邏輯思維,不是當(dāng)今AI的邏輯思維。
  4.2 AI:自己找出規(guī)則(規(guī)律性或法則)
  基于大數(shù)據(jù)的AI邏輯思維是:人類只需要給它(電腦)答案,由它自己歸納出規(guī)則。例如二進位加法:

微信截圖_20200210110753.png

  基于大數(shù)據(jù)的AI邏輯思維是:人類只需要給它(電腦)答案,由它自己歸納出規(guī)則。例如二進位加法如圖6。

1581304114140185.png

  人們只要給電腦考卷(即輸入值011和011),并且給予答案(即輸出值110)就可以了。AI能自己歸納出規(guī)則,并計算出非常接近正確的答案(如圖7)。

1581304172629128.png

  AI計算出來的答案:[0.98, 0.93, 0.09],只是非常接近正確答案:[1,1,0]。AI自己以權(quán)重(數(shù)字)來表達(dá)它自己歸納出來的規(guī)則(如圖8)。

1581304159803669.png

  在傳統(tǒng)小數(shù)據(jù)時代的IT邏輯編程,是讓人類表達(dá)其心中的規(guī)則,以程序碼敘述出來。如今的AI,并不需要人類去表達(dá)心中的規(guī)則,反而AI基于大數(shù)據(jù)而能歸納出比人類更優(yōu)質(zhì)、可信的規(guī)則。
  5 細(xì)說AI的“不確定性”
  5.1 AI的特質(zhì):“不確定”行為

  如前文所述,AI的特質(zhì)是非常清晰的:它依賴大數(shù)據(jù)表層(淺層)的相關(guān)性,作為歸納法推理的基礎(chǔ)。而歸納性推理是一種“黑盒子”思維,只有結(jié)論而沒有推理過程的。 

  當(dāng)AI訓(xùn)練完畢,投入實際應(yīng)用時,是依循AI自己歸納出來的規(guī)則而執(zhí)行。所以,人們常常無法充分理解和解釋AI行為的理由。AI自己講不清楚,甚至AI專家也講不清楚。這是人們對于AI行為的不確定感。

  于此也推薦您聽聽Janelle Shane于2019年4月在Ted上演講,主題是:AI的危險比你想象的更怪異(The dangerof AI is weirder than you think)[1]。

1581304200184444.png

  為了有效提升人們對A I的信賴度(即降低不確定感),許多專家聯(lián)合起來籌組了聯(lián)盟:A I不確定性聯(lián)盟(The Association for Uncertainty in ArtificialIntelligence,簡稱AUAI)[2]。并且定期召開大型會議,研討各種可能的解決途徑。
  5.2 AI不擅長“不確定性”的事物

  俗語說,優(yōu)點的另一面往往是缺點。AI擅長于歸納性推理(考古),迅速找出事物幕后蘊藏的規(guī)律性。對于沒有經(jīng)歷過的未知事物通常是無法理解和判斷的。此外,因為AI沒有擬定(對未來的)假設(shè)或假說(Hypothesis)的能力,而且它又沒有關(guān)于未來可變事物的數(shù)據(jù)。所以,AI對中長期的未來事物變遷的預(yù)測能力卻非常薄弱。這些未知的、未來變遷的不確定的部分,都是AI不擅長的。 

  在AI時代里,AI負(fù)責(zé)考古和探索眼前事實;人類觀想未來和擬定假設(shè)性方案。AI的能力與人類能力,形成互補,相輔相成,共同邁向人機共舞的社會。
  參考文獻(xiàn)

  [1] AI報道.從冰激凌實驗看懂AI(2019-12-10)[R/OL].https://baijiahao.baidu.com/s?id=1652513012407958900&wfr=spider&for=pc.
  [2] AUAI[R/OL].http://www.auai.org/.

  本文來源于科技期刊《電子產(chǎn)品世界》2020年第02期第88頁,歡迎您寫論文時引用,并注明出處。 



關(guān)鍵詞: 202002 AI 黑盒子 不確定性

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉