AI = 神經(jīng)網(wǎng)絡?這8個技術(shù)就不是!
AI熱潮中,有關(guān)神經(jīng)網(wǎng)絡的聲音最大。然而,AI遠遠不止如此。
本文引用地址:http://2s4d.com/article/201804/378865.htm目前在AI技術(shù)領域中,投入資金最多的當屬對神經(jīng)網(wǎng)絡的研究了。在眾人眼中,神經(jīng)網(wǎng)絡技術(shù)貌似就是“程序構(gòu)造的大腦”(雖然比喻很不準確)。神經(jīng)網(wǎng)絡的概念早在20世紀40年代就被提出,但直到現(xiàn)在,人們對于神經(jīng)元及大腦的工作方式仍然知之甚少,最近幾年,科研界關(guān)于神經(jīng)網(wǎng)絡技術(shù)創(chuàng)新的呼聲越來越強,渴望重啟神經(jīng)網(wǎng)絡的熱潮……其實,除了神經(jīng)網(wǎng)絡以外,AI領域中還包含很多更有趣、更新穎,更有前景的技術(shù),文章中就將這些技術(shù)介紹給大家。
1. Knol提取
Knol指信息單元,也就是關(guān)鍵字、詞等,Knol提取技術(shù)則是從文本中提取關(guān)鍵信息的過程。舉個簡單的例子:比如“顧名思義,章魚有8條腿”這句話經(jīng)過提取后,就變成了這個樣子:“章魚”:“腿的數(shù)目”:我們常用的Google搜索引擎就依賴于這項技術(shù),后續(xù)介紹的技術(shù)中,很多也都包含了這項技術(shù)。
2. 本體構(gòu)建
本體構(gòu)建是基于NLP的技術(shù),旨在用軟件來構(gòu)建實體名詞的層次結(jié)構(gòu),這一技術(shù)對實現(xiàn)AI會話大有幫助。雖然本體構(gòu)建表面看起來簡單,但事實上構(gòu)建卻并不容易,主要因為事物之間的實際聯(lián)系比我們所認為的要復雜的多。例如,利用NLP分析文本來建立實體關(guān)系集:例句:“我的拉布拉多犬剛剛生了一群小狗崽,它們的父親是只獅子狗,所以它們是拉布拉多貴賓犬(一種混血犬)”這句話被轉(zhuǎn)換后,就變成了:“小狗崽”:“可能是”:“拉布拉多貴賓犬”,“擁有/生(have)”:“父親”},“拉布拉多犬”:“擁有/生(have)”:“小狗崽”。但是,人類在進行語言表達時,通常不會將所有的關(guān)系都陳述出來,比如這句話中,是要通過推斷才能得出“我的拉布拉多犬為雌性”這一事實,這就是本體構(gòu)建的難點所在。正如此,本體構(gòu)建技術(shù)目前只應用在了頂尖的聊天機器人中。
3. 自定義啟發(fā)式
啟發(fā)式是一種用于分類的規(guī)則,通常類似于“如果這件物品是紅色的”或“如果Bob在家里”這樣的條件語句,這些條件語句常伴隨某項動作或決定,例如:如果某物“成分”屬性中包含“砷”這一元素:則它的“毒藥”屬性為“True”。對于每個新的信息,都伴隨著新的啟發(fā)式和新的關(guān)系,隨著新的啟發(fā)式的建立,又可以對相關(guān)的名詞產(chǎn)生新的理解。比如:啟發(fā)式一:"puppies"(小狗)說明是幼崽(Babies);啟發(fā)式二:幼崽(Babies)說明很年輕;通過以上兩個啟發(fā)式推斷出:"puppies"都很年輕。啟發(fā)式的難點在于,多數(shù)情況下,規(guī)則并不會如“If/Then”一樣簡單。類似于“有些人頭發(fā)是金色的”這樣的語句,就很難用啟發(fā)式來表述。所以我們有了“認知論”(見下)。
4. 認識:認識論是本體構(gòu)建和自定義啟發(fā)式的結(jié)合,并在其中加入了概率特性,通過概率表示名詞與任一屬性產(chǎn)生關(guān)聯(lián)的可能。比如,用這樣本體結(jié)構(gòu):'人':'性別':'男':0.49,'女':0.51,'種族':'亞裔':0.6,'非洲裔':0.14來表示對一個人性別和種族的判斷。同時,概率能幫助識別一些具有多重含義的“混合型”詞組,比如像“梅子像是打了激素的葡萄干”這句話中,因為“打了激素”這一詞組很大可能地意味著“體積較大”,從而得出,這句話很大可能的意思是“梅子體積比葡萄干大”。
認識論的實現(xiàn)相比本體構(gòu)建要困難得多。首先,它需要更多的數(shù)據(jù);并且,由于其結(jié)構(gòu)的復雜性,很難在確定規(guī)則后快速地建立起數(shù)據(jù)庫來實現(xiàn)查找;還有,規(guī)則的確定通?;谀稠検挛镌谝欢挝淖种斜惶峒暗念l率,但文字卻未必能真實地反映現(xiàn)實情況。
認識論與Asimov提出的“張量流”理論很相似。Google開發(fā)的同名TensorFlow系統(tǒng)并不是真正基于張量,而認識論是基于張量的。
5. 自動量規(guī)技術(shù)
一個量規(guī)系統(tǒng),必定包含相應的評估標準。想象一下,在選購房子時,有房屋面積,位置,價格和風格等因素需要考量,而這些因素未必都是積極的,這就需要有通過衡量取舍來決策。比如,相比價格你更在乎房屋面積,就會寧愿多花幾倍的錢來購買大房子。自評估技術(shù)通過你對不同因素的重視程度來確定每項因素的權(quán)重,從而提出決策建議。通過這一過程,還可以預測庫存變化,推薦產(chǎn)品,實現(xiàn)自動駕駛等。也就是說,大多數(shù)神經(jīng)網(wǎng)絡可以實現(xiàn)的功能,自動量規(guī)技術(shù)都能勝任,盡管需要更長的訓練時間,但卻有著快幾個數(shù)量級的決策速度。
6. 矢量差分
矢量差分技術(shù)常用于圖像分析,也可用于時變數(shù)據(jù)的處理。通過對目標構(gòu)建抽象矢量圖,將候選對象與待識別目標對象進行比較,從而判斷出是否為“最佳的約會臉型”或“最佳的買入時機”等。
通常,目標對象之間差異都伴隨一個衡量差異程度的量化規(guī)則,通過特征的矢量化,將一些“模糊”的概念,簡單、清晰的表示出來。比如,對于人類來講,我們籠統(tǒng)地認為對稱的臉型更具有吸引力,但是對于計算機,就需要精確的計算來判斷,而這時,通過30個三角形來進行臉部抽象,比通過完整臉部圖像來進行運算對比,能節(jié)省很多的計算時間和存儲空間。對于非圖像的數(shù)據(jù)的處理也是可以的。比如股票價格變動、每股收益與保證金的比率等,通過對這些數(shù)據(jù)矢量化,將其與理想值進行比較,就可以確定一次投資的利好或風險程度。
7. 矩陣卷積
卷積矩陣常用于圖像處理領域中的邊緣檢測和提高對比度等方面,例如,PhotoShop中的許多濾鏡都是基于卷積矩陣或疊加卷積(按特定順序進行多個卷積運算)實現(xiàn)的。同時,卷積矩陣還可用于處理非圖像數(shù)據(jù)。比如,當使用卷積矩陣對時序向量進行處理時,可以像邊緣檢測那樣,快速地找出模式來,再在最小或最大值處查找特定值或范圍,從而做出判斷。
8. 多視角決策系統(tǒng)
一項決定的做出并不簡單。多視角決策系統(tǒng)以一種更民主的形式,多方面地作出決定。
比如,在剛剛房子的例子中,你對于某套房子的看好可能基于并不全面的因素,而之后的一個“這套房子建在懸崖上”的事實(當然,這種壓倒性因素可能來自于Knol提取)就會消除你先前的所有好感,讓你重新決策。
所以,決策需要通過更全面的因素考量,而多視角決策系統(tǒng),可以利用兩個人的兩套標準(比如你和你的配偶)來衡量決策。多視角決策系統(tǒng)還可應用于自動駕駛領域,比如,收集10000個車主的看法來制定新標準等。
寫在最后——要相信技多不壓身
許多人眼中只有一把工具,掉進“我有的就是一把錘子,所以一切都是釘子”的深坑。諸如Recognant這樣的公司,在應用神經(jīng)網(wǎng)絡的同時,也同樣在應用文章中這些相對冷門的技術(shù),畢竟相比于神經(jīng)網(wǎng)絡硬件系統(tǒng),
這些軟件技術(shù)的優(yōu)勢就在于,能針對不同情況進行隨時的調(diào)整和開發(fā),而無需花費額外的成本。所以,技術(shù)面窄,就有可能被一些情況所困住,而技術(shù)面越寬,面對問題就越容易迎刃而解。
評論