智能語音科技簡史(2018版),這場技術(shù)革命從哪開始?
1988年,卡耐基梅隆大學(xué)結(jié)合矢量量化技術(shù)(VQ),用VQ/HMM方法開發(fā)了世界上第一個非特定人大詞匯量連續(xù)語音識別系統(tǒng)SPHINX,能夠識別包括997個詞匯的4200個連續(xù)語句。
本文引用地址:http://2s4d.com/article/201804/378689.htm同年,清華大學(xué)和中科院聲學(xué)所在大詞庫漢語聽寫機的研制上取得了突破性進展。
1990年,聲龍發(fā)布了第一款消費級語音識別產(chǎn)品Dragon Dictate,價格高達9000美元。
1992年,IBM引入了它的第一個聽寫系統(tǒng),稱為“IBM Speech Server Series (ISSS)”。
1992年研發(fā)的Sphinx-II在同年美國國防部先進技術(shù)研究計劃署(DARPA)資助的語音基準評測中獲得了最高的識別準確度,這主要得益于其在高斯混合和馬爾可夫狀態(tài)層次上用栓連參數(shù)平衡了可訓(xùn)練性和高效性。
1995年,Windows 95上首次搭載微軟SAPI,它使應(yīng)用程序開發(fā)者能夠在Windows上創(chuàng)建語音程序。
1995年,AT&T研究院的 Dave Ladd, Chris Ramming, Ken Rehor 以及 Curt Tuckey 在頭腦風(fēng)暴關(guān)于互聯(lián)網(wǎng)會如何改變電話應(yīng)用的時候,產(chǎn)生了一些新的想法:為什么不設(shè)計這樣一個系統(tǒng)來運行一種可以解析某種語音標記語言的語音瀏覽器,用來把互聯(lián)網(wǎng)的內(nèi)容和服務(wù)提供到千家萬戶的電話上。于是,AT&T就開始“電話網(wǎng)絡(luò)項目”(Phone Web Project)。之后,Chris繼續(xù)留在AT&T,Ken去了朗訊,Dave和Curt去了摩托羅拉。(1999年初的時候,他們分別在各自的公司邁出了語音標記語言規(guī)范實質(zhì)性的第一步。因為他們的密友關(guān)系,這幾家公司合作成立了一個VoiceXML論壇組織,IBM也作為一個創(chuàng)始公司加入了進來。)
1997年IBM ViaVoice首個語音聽寫產(chǎn)品問世,你只要對著話筒喊出要輸入的字符,它就會自動判斷并且?guī)湍爿斎胛淖?。次年又開發(fā)出可以識別上海話、廣東話和四川話等地方口音的語音識別系統(tǒng)ViaVoice’ 98。
1998年,微軟在北京成立亞洲研究院,將漢語語音識別納入重點研究方向之一。
2001年,比爾蓋茨在美國消費電子展上展示了一臺代號為MiPad的原型機。Mipad展現(xiàn)了語音多模態(tài)移動設(shè)備的愿景。
2002年,中科院自動化所及其所屬模式科技公司推出了“天語”中文語音系列產(chǎn)品——Pattek ASR,結(jié)束了該領(lǐng)域一直被國外公司壟斷的局面。
2002年,美國國防部先進技術(shù)研究計劃署(DARPA)首先啟動了EARS項目和TIDES 項目; 由于EARS項目過于敏感,EARS和TIDES兩個項目合并為“全球自主語言開發(fā)”(Global Autonomous Language Exploitation,GALE)。GALE目標是應(yīng)用計算機軟件技術(shù)對海量規(guī)模的多語言語音和文本進行獲取、轉(zhuǎn)化、分析和翻譯。
2006年,辛頓(Hinton)提出深度置信網(wǎng)絡(luò)(DBN),促使了深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)研究的復(fù)蘇,掀起了深度學(xué)習(xí)的熱潮。
2009年,辛頓以及他的學(xué)生默罕默德(D. Mohamed)將深度神經(jīng)網(wǎng)絡(luò)應(yīng)用于語音的聲學(xué)建模,在小詞匯量連續(xù)語音識別數(shù)據(jù)庫TIMIT上獲得成功。
2009年微軟Win7集成語音功能。
2010年Google Vioce Action支持語音操作與搜索。
2011年初,微軟的DNN模型在語音搜索任務(wù)上獲得成功。
同年科大訊飛將DNN 首次成功應(yīng)用到中文語音識別領(lǐng)域,并通過語音云平臺提供給廣大開發(fā)者使用。
2011年10月,蘋果iPhone 4S發(fā)布,個人手機助理Siri誕生,人機交互翻開新篇章。
2012年,科大訊飛在語音合成領(lǐng)域首創(chuàng)RBM技術(shù)。
2012年,谷歌的智能語音助手Google Now 的形式出現(xiàn)在眾人面前,用在安卓 4.1 和 Nexus 手機上。
2013年,Google發(fā)布Google Glass,蘋果也加大了對iWatch的研發(fā)投入,穿戴式語音交互設(shè)備成為新熱點。
同年,科大訊飛在語種識別領(lǐng)域首創(chuàng)BN-ivec技術(shù)。
2014 年,思必馳推出首個可實時轉(zhuǎn)錄的語音輸入板。
2014年11月,亞馬遜智能音箱Echo發(fā)布。
2015 年,思必馳推出首個可智能打斷糾正的語音技術(shù)。
2016年,Google Assistant伴隨Google Home 正式亮相,搶奪亞馬遜智能音箱市場。(亞馬遜Echo在2016年的智能音箱市場占有率達到了巔峰的88%)
同年,科大訊飛上線DFCNN(深度全序列卷積神經(jīng)網(wǎng)絡(luò),Deep Fully Convolutional Neural Network)語音識別系統(tǒng)。
同年11月,科大訊飛、搜狗、百度先后召開發(fā)布會,對外公布語音識別準確率均達到“97%”。
2017年3月,IBM結(jié)合了 LSTM 模型和帶有 3 個強聲學(xué)模型的 WaveNet 語言模型。“集中擴展深度學(xué)習(xí)應(yīng)用技術(shù)終于取得了 5.5% 詞錯率的突破”。相對應(yīng)的是去年5月的6.9%。
2017年8月,微軟發(fā)布新的里程碑,通過改進微軟語音識別系統(tǒng)中基于神經(jīng)網(wǎng)絡(luò)的聽覺和語言模型,在去年基礎(chǔ)上降低了大約12%的出錯率,詞錯率為5.1%,聲稱超過專業(yè)速記員。相對應(yīng)的是去年10月的5.9%,聲稱超過人類。
2017年12月,谷歌發(fā)布全新端到端語音識別系統(tǒng)(State-of-the-art Speech Recognition With Sequence-to-Sequence Models),詞錯率降低至5.6%。相對于強大的傳統(tǒng)系統(tǒng)有 16% 的性能提升。
市場分析公司Canalys在2018年1月分布一份報告,其預(yù)測2018年將是普及智能音箱的“決定性一年”,相比全年出貨量剛過3000萬臺的2017年,2018年智能音箱全球出貨量預(yù)計將達到5630萬臺。
中投顧問發(fā)布的《2018-2022年中國智能語音行業(yè)深度調(diào)研及投資前景預(yù)測報告》顯示我國智能語音市場整體處于啟動期,智能車載,智能家居,智能可穿戴等垂直領(lǐng)域處于爆發(fā)前夜。
文章引用
[1] 李曉雪. 基于麥克風(fēng)陣列的語音增強與識別研究[D]. 浙江大學(xué), 2010.
[2] 倪崇嘉, 劉文舉, 徐波. 漢語大詞匯量連續(xù)語音識別系統(tǒng)研究進展[J]. 中文信息學(xué)報, 2009, 23(1):112-123.
[3] 高朝煌. 非特定人漢語連續(xù)數(shù)字語音識別系統(tǒng)的研究與實現(xiàn)[D]. 西安電子科技大學(xué), 2011.
[4] 《2017年的語音識別,路只走了一半》
[5] 《2018-2022年國內(nèi)外智能語音發(fā)展的分析》
[6] 《四十年的難題與榮耀—從歷史視角看語音識別發(fā)展》
[7] 《幾個常見的語音交互平臺的簡介和比較》
[8] 《VoiceXML簡介》
[9] 《思必馳官方介紹資料》
評論