關(guān) 閉

新聞中心

EEPW首頁 > 工控自動化 > 業(yè)界動態(tài) > 如何快速使用大規(guī)模機器學習的核心技術(shù)?

如何快速使用大規(guī)模機器學習的核心技術(shù)?

作者: 時間:2016-02-26 來源:TechWeb 收藏
編者按:這么多巨頭將機器學習平臺開源,作為開發(fā)者,我們再沒理由不利用好,大規(guī)模機器學習是一柄利刃,但決不是萬能的,對于大規(guī)模機器學習領(lǐng)域來說,業(yè)務(wù)技術(shù)的重要性勝過基礎(chǔ)技術(shù)。

  具體來說,DMTK當前版本的工具包主要有以下幾個部分:

本文引用地址:http://2s4d.com/article/201602/287461.htm



  DMTK分布式機器學習框架

  主要由參數(shù)服務(wù)器和客戶端軟件開發(fā)包(SDK)兩部分構(gòu)成。

  1. 參數(shù)服務(wù)器。重新設(shè)計過的參數(shù)服務(wù)器在原有基礎(chǔ)上從性能和功能上都得到了進一步提升——支持存儲混合數(shù)據(jù)結(jié)構(gòu)模型、接受并聚合工作節(jié)點服務(wù)器的數(shù)據(jù)模型更新、控制模型同步邏輯等。

  2. 客戶端軟件開發(fā)包(SDK)。包括網(wǎng)絡(luò)層、交互層的一些東西,支持維護節(jié)點模型緩存(與全局模型服務(wù)器同步)、節(jié)點模型訓練和模型通訊的流水線控制、以及片狀調(diào)度大模型訓練等。用戶并不需要清楚地知道參數(shù)和服務(wù)器的對應(yīng)關(guān)系,SDK會幫助用戶自動將客戶端的更新發(fā)送至對應(yīng)的參數(shù)服務(wù)器端。

  通用分布式機器學習算法

  LightLDA:LightLDA是一種全新的用于訓練主題模型的學習算法,是具有可擴展、快速、輕量級,計算復(fù)雜度與主題數(shù)目無關(guān)等特點的高效算法。在其分布式實現(xiàn)中,DMTK團隊做了大量系統(tǒng)優(yōu)化使得其能夠在一個普通計算機集群上處理超大規(guī)模的數(shù)據(jù)和模型。例如,在一個由8臺計算機組成的集群上,只需要一個星期左右的時間,可以在具有1千億訓練樣本(token)的數(shù)據(jù)集上訓練具有1千萬詞匯表和1百萬個話題(topic)的LDA模型(約10萬億個參數(shù))。這種規(guī)模的實驗以往在數(shù)千臺計算機的集群上也需要數(shù)以月計的時間才能得到相似結(jié)果。

  分布式詞向量:詞向量技術(shù)近來被普遍地應(yīng)用于計算詞匯的語義表示,它可以用作很多自然語言處理任務(wù)的詞特征。微軟為兩種計算詞向量的算法提供了高效的分步式實現(xiàn):一種是標準的word2vec算法,另一種是可以對多義詞計算多個詞向量的新算法。

  詞向量的作用是為了比較兩個詞之前的距離,基于這個距離來判斷語義上更深的信息。以前的詞向量模型以單詞為維度建立,每個單詞學出一組參數(shù),每組參數(shù)即為詞向量,每個單詞通過映射至詞向量上來進行語義上的表達。一個向量在語義空間中對應(yīng)一個點。而一詞多義的現(xiàn)象極為普遍,但如果多個意思在語義空間中只用一個點來表達就不太科學。如果我們希望學出多個語義空間中的點,在建立模型時就不會讓每個單詞只表達出一個向量,而是最開始時就讓每個單詞選擇N個向量進行定義,而后置入概率混合模型。這個模型通過在學習過程中不斷的優(yōu)化,產(chǎn)生對每個單詞多個向量的概率分布,結(jié)合語境對每個向量分配概率,從而學習更有意義的詞向量表達。

  一詞多義的學習框架和學習過程與一詞一義并沒什么不同,但它有更多的參數(shù),并且需要在學習過程中分配多個向量各自對應(yīng)的概率,因此復(fù)雜度更高。由于整個過程通過多機進行并行,因此還是能夠保證以足夠快的速度完成訓練。比如在對某網(wǎng)頁數(shù)據(jù)集(約1千億單詞)進行訓練時,8臺機器大概40個小時內(nèi)就可以完成模型訓練。

  DMTK提供了豐富的API接口給研發(fā)人員。大數(shù)據(jù)接口主要集中在并行框架這部分,來解決很多機器一起學習時,單機的客戶端如何調(diào)用參數(shù)服務(wù)器的問題。

  王太峰為我們列舉了DMTK中對于不同需求的開發(fā)者設(shè)計的API:

  保持原有機器學習算法流程:這類開發(fā)人員最需要的API就是同步參數(shù),依照自己原有的算法進行訓練,只在需要多機之間交互時利用DMTK的API來獲取模型參數(shù)(GET)和發(fā)送更新(ADD)。通常這類開發(fā)需要花的精力比較少。 從頭設(shè)計算法:這類開發(fā)人員不需要設(shè)計完整算法流程,只需按照DMTK中對數(shù)據(jù)塊描述,接口會告訴DMTK每條數(shù)據(jù)需要什么參數(shù),如何利用數(shù)據(jù)進行參數(shù)更新。DMTK客戶端SDK會自動啟動內(nèi)置的學習流程,進行逐條數(shù)據(jù)的訓練,并在必要的時候進行模型交互。

  目前DMTK在GitHub上有1400多顆星,在分布式機器學習的框架上來說排名是非??壳暗摹S脩粢卜答伭撕芏鄬Υa修復(fù)的意見、和對增加一些額外功能需求的建議。

  DMTK并非完整的開箱即用解決方案,其中分布式的算法,如LightLDA,WordEmbedding可以為很多用戶直接所用。同時,DMTK在設(shè)計上允許用戶進行后續(xù)擴展,使其能夠支持更多的算法和平臺。王太峰還透露,目前DMTK還是利用現(xiàn)有的文檔系統(tǒng)(Filesystem),直接將數(shù)據(jù)分布在里面,各個機器處理本地硬盤上的數(shù)據(jù)。在此基礎(chǔ)上,DMTK正逐漸增加對Hadoop的一些支持,如利用HDFS去讀數(shù)據(jù),幫助用戶調(diào)度作業(yè)等。

  后記

  就在不久前,微軟公司還發(fā)布了另一套機器學習工具包,即計算網(wǎng)絡(luò)工具包(Computational Network Toolkit)——或者簡稱CNTK。另外,谷歌開源人工智能系統(tǒng)TensorFlow,IBM開源機器學習平臺SystemML。這對廣大開發(fā)者和創(chuàng)業(yè)公司來說,無疑在很大程度上簡化基礎(chǔ)技術(shù)的投入和難度。


上一頁 1 2 下一頁

關(guān)鍵詞: 機器人

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉