首頁  資訊  商機(jī)   下載  拆解   高校  招聘   雜志  會展  EETV  百科   問答  電路圖  工程師手冊   Datasheet  100例   活動(dòng)中心  E周刊閱讀   樣片申請
EEPW首頁 >> 主題列表 >> dnn

基于自適應(yīng)軟掩模的語音混合特征增強(qiáng)分析

  • 為了提高語音混合特征增強(qiáng)效果,設(shè)計(jì)了一種以自適應(yīng)軟掩模與混合特征共同分析算法來實(shí)現(xiàn)。以混合特征分析可以消除單一梅爾域?yàn)V波器無法提供高頻特征的缺陷。研究結(jié)果表明:選擇融合相位自適應(yīng)軟掩模方式時(shí),能夠最大程度去除背景噪聲。以本文融合相位差自適應(yīng)軟掩模可以獲得比IRM更顯著優(yōu)勢,經(jīng)過優(yōu)化處理的語音特征與學(xué)習(xí)目標(biāo)構(gòu)建得到的語音增強(qiáng)算法能夠促進(jìn)語音質(zhì)量的明顯提升。以自適應(yīng)軟掩模與混合特征訓(xùn)練神經(jīng)網(wǎng)絡(luò)處理獲得優(yōu)秀的信 噪比,達(dá)到更優(yōu)的算法性能。
  • 關(guān)鍵字: 202308  語音增強(qiáng)  自適應(yīng)軟掩模  DNN  混合特征  

直覺有害!Facbook最新研究:易于解釋的神經(jīng)元會誤導(dǎo)DNN的學(xué)習(xí)

  •   編譯|蔣寶尚  關(guān)于AI是什么,學(xué)界和業(yè)界已經(jīng)給出了非常多的定義,但是對于AI理解,探討尚不足。換句話說,計(jì)算機(jī)科學(xué)家解釋深度神經(jīng)網(wǎng)絡(luò)(DNNs)的能力大大落后于我們利用其取得有用結(jié)果的能力?! ‘?dāng)前理解深度神經(jīng)網(wǎng)絡(luò)的常見做法是在單個(gè)神經(jīng)元特性上“折騰”。例如,激活識別貓圖像的神經(jīng)元,而關(guān)閉其他神經(jīng)元的“控制變量法”。這種方法的學(xué)術(shù)術(shù)語叫做“類選擇性”?! ∮捎谥庇^和易理解,“類選擇性”在學(xué)界廣泛應(yīng)用。誠然,在訓(xùn)練過程中,這類可解釋的神經(jīng)元確實(shí)會“選擇性地”出現(xiàn)在各種不同任務(wù)網(wǎng)絡(luò)中。例如,預(yù)測產(chǎn)品評論
  • 關(guān)鍵字: DNN  深度神經(jīng)網(wǎng)絡(luò)  深度學(xué)習(xí)  

為什么深度學(xué)習(xí)如此容易被愚弄?AI研究員正努力修復(fù)神經(jīng)網(wǎng)絡(luò)缺陷

  •   來源:nature  編譯:張大筆茹、小七  假設(shè)一輛自動(dòng)駕駛汽車看到停車標(biāo)志時(shí)并沒有減速,而是加速駛?cè)肓朔泵Φ氖致房冢瑥亩鴮?dǎo)致了交通事故。事故報(bào)告顯示,停車標(biāo)志的表面粘了四個(gè)小的矩形標(biāo)志。這說明一些微小擾動(dòng)就能愚弄車載人工智能(AI),使其將“停止”一詞誤讀為“限速45”?! ∧壳?,此類事件還未發(fā)生,但是人為擾動(dòng)可能影響AI是非?,F(xiàn)實(shí)的。研究人員已經(jīng)展示了如何通過粘貼紙來欺騙AI系統(tǒng)誤讀停車標(biāo)志,或者通過在眼鏡或帽子上粘貼印刷圖案來欺騙人臉識別系統(tǒng),又或者通過在音頻中插入白噪聲使語音識別系統(tǒng)產(chǎn)生錯(cuò)
  • 關(guān)鍵字: DNN  深度神經(jīng)網(wǎng)絡(luò)  深度學(xué)習(xí)  

DNNBrain:北師大團(tuán)隊(duì)出品的用于映射深層神經(jīng)網(wǎng)絡(luò)到大腦的工具箱

  • 導(dǎo)讀深度神經(jīng)網(wǎng)絡(luò)(DNN)通過端到端的深度學(xué)習(xí)策略在許多具有挑戰(zhàn)性的任務(wù)上達(dá)到了人類水平的性能。深度學(xué)習(xí)產(chǎn)生了具有多層抽象層次的數(shù)據(jù)表示;然而,它沒有明確地提供任何關(guān)于DNNs內(nèi)部運(yùn)作的解釋,換句話說它的內(nèi)部運(yùn)作是一個(gè)黑盒子。深度神經(jīng)網(wǎng)絡(luò)的成功吸引了神經(jīng)科學(xué)家,他們不僅將DNN應(yīng)用到生物神經(jīng)系統(tǒng)模型中,而且還采用了認(rèn)知神經(jīng)科學(xué)的概念和方法來理解DNN的內(nèi)部表示。盡管可以使用諸如PyTorch和TensorFlow之類的通用深度學(xué)習(xí)框架來進(jìn)行此類跨學(xué)科研究,但是使用這些框架通常需要高級編程專家和全面的數(shù)學(xué)知
  • 關(guān)鍵字: DNN  深度神經(jīng)網(wǎng)絡(luò)  深度學(xué)習(xí)  腦機(jī)接口  

CNN(卷積神經(jīng)網(wǎng)絡(luò))、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))、DNN(深度神經(jīng)網(wǎng)絡(luò))的內(nèi)部網(wǎng)絡(luò)結(jié)構(gòu)的區(qū)別

  • 先說DNN,從結(jié)構(gòu)上來說他和傳統(tǒng)意義上的NN(神經(jīng)網(wǎng)絡(luò))沒什么區(qū)別,但是神經(jīng)網(wǎng)絡(luò)發(fā)展時(shí)遇到了一些瓶頸問題。一開始的神經(jīng)元不能表示異或運(yùn)算,科學(xué)家通過增加網(wǎng)絡(luò)層數(shù),增加隱藏層可以表達(dá)。并發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)的層數(shù)直接決定了它對現(xiàn)實(shí)的表達(dá)能力。但是隨著層數(shù)的增加會出現(xiàn)局部函數(shù)越來越容易出現(xiàn)局部最優(yōu)解的現(xiàn)象,用數(shù)據(jù)訓(xùn)練深層網(wǎng)絡(luò)有時(shí)候還不如淺層網(wǎng)絡(luò),并會出現(xiàn)梯度消失的問題。我們經(jīng)常使用sigmoid函數(shù)作為神經(jīng)元的輸入輸出函數(shù),在BP反向傳播梯度時(shí),信號量為1的傳到下一層就變成0.25了,到最后面幾層基本無法達(dá)到調(diào)節(jié)參數(shù)
  • 關(guān)鍵字: DNN  深度神經(jīng)網(wǎng)絡(luò)  深度學(xué)習(xí)  CNN  RNN  

深度神經(jīng)網(wǎng)絡(luò)(DNN)模型與前向傳播算法

  •   深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,以下簡稱DNN)是深度學(xué)習(xí)的基礎(chǔ),而要理解DNN,首先我們要理解DNN模型,下面我們就對DNN的模型與前向傳播算法做一個(gè)總結(jié)?! ?.從感知機(jī)到神經(jīng)網(wǎng)絡(luò)  在感知機(jī)原理小結(jié)中,我們介紹過感知機(jī)的模型,它是一個(gè)有若干輸入和一個(gè)輸出的模型,如下圖:  輸出和輸入之間學(xué)習(xí)到一個(gè)線性關(guān)系,得到中間輸出結(jié)果:  z=∑i=1mwixi+bz=∑i=1mwixi+b  接著是一個(gè)神經(jīng)元激活函數(shù):  sign(z)={?11z<0z≥0sign(z)={
  • 關(guān)鍵字: DNN  深度神經(jīng)網(wǎng)絡(luò)  深度學(xué)習(xí)  

什么是DNN?它對AI發(fā)展意味著什么

  • 為了讓AI加速器在最短延遲內(nèi)達(dá)到最佳精準(zhǔn)度,特別是在自動(dòng)駕駛車中,TFLOP已經(jīng)成為許多所謂大腦芯片的關(guān)鍵指針,然而,有專家認(rèn)為這種野蠻處理方式并不可持續(xù)…… 為了讓人工智能(AI)加速器在最短延遲內(nèi)達(dá)到最佳精準(zhǔn)度,特別是在自動(dòng)駕駛車(AV)中,TFLOP(兆次浮點(diǎn)運(yùn)算)已經(jīng)成為許多所謂大腦芯片的關(guān)鍵指針。這場競賽的選手包括Nvidia的Xavier、Mobileye的EyeQ5、特斯拉(Tesla)的全自動(dòng)駕駛(FSD)計(jì)算機(jī)芯片,以及NXP-Kalray芯片。然而,有專家認(rèn)為這種野蠻處理方式
  • 關(guān)鍵字: DNN  深度神經(jīng)網(wǎng)絡(luò)  深度學(xué)習(xí)  

深度學(xué)習(xí)干貨|基于Tensorflow深度神經(jīng)網(wǎng)絡(luò)(DNN)詳解

  • 深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,簡稱DNN)是深度學(xué)習(xí)的基礎(chǔ),想要學(xué)好深度學(xué)習(xí),首先我們要理解DNN模型。DNN的基本結(jié)構(gòu)神經(jīng)網(wǎng)絡(luò)是基于感知機(jī)的擴(kuò)展,而DNN可以理解為有很多隱藏層的神經(jīng)網(wǎng)絡(luò)。多層神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)DNN其實(shí)也基本一樣,DNN也叫做多層感知機(jī)(MLP)。DNN按不同層的位置劃分,神經(jīng)網(wǎng)絡(luò)層可以分為三類,輸入層,隱藏層和輸出層,如下圖示例,一般來說第一層是輸入層,最后一層是輸出層,而中間的層數(shù)都是隱藏層。網(wǎng)絡(luò)結(jié)構(gòu)層與層之間是全連接的,也就是說,第i層的任意一個(gè)神經(jīng)
  • 關(guān)鍵字: DNN  深度神經(jīng)網(wǎng)絡(luò)  深度學(xué)習(xí)  

Facebook AI新研究:可解釋神經(jīng)元或許會阻礙DNN的學(xué)習(xí)

  • Facebook AI 近期更新博客介紹了一篇新論文,即研究人員通過實(shí)驗(yàn)發(fā)現(xiàn)「易于解釋的神經(jīng)元可能會阻礙深層神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)」。為了解決這些問題,他們提出了一種策略,通過可偽造的可解釋性研究框架的形式來探討出現(xiàn)的問題。  人工智能模型到底「理解」了什么內(nèi)容,又是如何「理解」的呢?  回答這個(gè)問題對于改進(jìn)人工智能系統(tǒng)來說至關(guān)重要。而不幸的是,計(jì)算機(jī)科學(xué)家解釋深層神經(jīng)網(wǎng)絡(luò)(DNN)的能力遠(yuǎn)遠(yuǎn)落后于我們用它們實(shí)現(xiàn)有用結(jié)果的能力?! ∫环N常見的理解DNN的方法集中在單個(gè)神經(jīng)元的屬性上,例如,尋找出一個(gè)單獨(dú)的神經(jīng)元,
  • 關(guān)鍵字: Facebook  AI  DNN  

Mentor Catapult HLS 助力Chips&Media 將深度學(xué)習(xí)硬件加速器 IP 交付時(shí)間縮短一半

  •   Mentor?, a Siemens business 今日宣布 Chips&Media? 已成功部署 Mentor Catapult? HLS 平臺,將使用深度神經(jīng)網(wǎng)絡(luò) (DNN) 算法設(shè)計(jì)和驗(yàn)證其 c.WAVE 計(jì)算機(jī)視覺 IP 的實(shí)時(shí)對象檢測。Chips&Media 是一家面向片上系統(tǒng) (SoC) 設(shè)計(jì)高性能、高質(zhì)量視頻 IP 的領(lǐng)先供應(yīng)商,其產(chǎn)品廣泛應(yīng)用于汽車、監(jiān)控和消費(fèi)電子領(lǐng)域?! hips&Media 需要通過減少功能驗(yàn)證時(shí)間、時(shí)序收斂、自定義和最終優(yōu)
  • 關(guān)鍵字: Mentor  DNN  

Gartner公布十大戰(zhàn)略物聯(lián)網(wǎng)技術(shù)和趨勢

  •   Gartner今天強(qiáng)調(diào)了最重要的幾大戰(zhàn)略物聯(lián)網(wǎng)(IoT)技術(shù)趨勢,并稱這些趨勢將推動(dòng)2018年至2023年期間的數(shù)字業(yè)務(wù)創(chuàng)新?! artner研究副總裁Nick Jones表示:“物聯(lián)網(wǎng)將繼續(xù)為未來十年的數(shù)字業(yè)務(wù)創(chuàng)新提供新的機(jī)遇,其中很多創(chuàng)新將通過新技術(shù)或改進(jìn)技術(shù)實(shí)現(xiàn)。那些掌握了創(chuàng)新物聯(lián)網(wǎng)趨勢的CIO們才有機(jī)會在其業(yè)務(wù)中領(lǐng)導(dǎo)數(shù)字化創(chuàng)新?!薄 〈送?,CIO們應(yīng)該確保他們擁有必要的技能和合作伙伴,以支持關(guān)鍵的新興物聯(lián)網(wǎng)趨勢和技術(shù),因?yàn)榈?023年CIO們負(fù)責(zé)的端點(diǎn)數(shù)量將是今年的3倍多。  Gartner
  • 關(guān)鍵字: DNN  物聯(lián)網(wǎng)(  

人類和DNN的目標(biāo)識別穩(wěn)健性比較

  •   深度神經(jīng)網(wǎng)絡(luò)在很多任務(wù)上都已取得了媲美乃至超越人類的表現(xiàn),但其泛化能力仍遠(yuǎn)不及人類。德國蒂賓根大學(xué)等多所機(jī)構(gòu)近期的一篇論文對人類和 DNN 的目標(biāo)識別穩(wěn)健性進(jìn)行了行為比較,并得到了一些有趣的見解。機(jī)器之心對該論文進(jìn)行了編譯介紹?! ≌ ∥覀兺ㄟ^ 12 種不同類型的圖像劣化(image degradation)方法,比較了人類與當(dāng)前的卷積式深度神經(jīng)網(wǎng)絡(luò)(DNN)在目標(biāo)識別上的穩(wěn)健性。首先,對比三種著名的 DNN(ResNet-152、VGG-19、GoogLeNet),我們發(fā)現(xiàn)不管對圖像進(jìn)行怎樣的操
  • 關(guān)鍵字: DNN  深度神經(jīng)網(wǎng)絡(luò)  

深度神經(jīng)網(wǎng)絡(luò)(DNN)是否模擬了人類大腦皮層結(jié)構(gòu)?

  •   概要:人工智能交融了諸多學(xué)科,而目前對人工智能的探索還處于淺層面,我們需要從不同角度和層次來思考,比如人工智能和大腦的關(guān)系。   神經(jīng)元   在深度學(xué)習(xí)領(lǐng)域,神經(jīng)元是最底層的單元,如果用感知機(jī)的模型, wx + b, 加上一個(gè)激活函數(shù)構(gòu)成了全部,輸入和輸出都是數(shù)字,研究的比較清楚。別的不說,在參數(shù)已知的情況下,有了輸入可以計(jì)算輸出,有了輸出可以計(jì)算輸入。   但在神經(jīng)科學(xué)領(lǐng)域,神經(jīng)元并不是最底層的單位。   舉例來說,有人在做神經(jīng)元膜離子通道相關(guān)的工作。一個(gè)神經(jīng)元的輸入,可以分為三部分,從其他
  • 關(guān)鍵字: DNN  深度學(xué)習(xí)  
共13條 1/1 1

dnn介紹

深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,簡稱DNN)是深度學(xué)習(xí)的基礎(chǔ)。DNN的基本結(jié)構(gòu)  神經(jīng)網(wǎng)絡(luò)是基于感知機(jī)的擴(kuò)展,而DNN可以理解為有很多隱藏層的神經(jīng)網(wǎng)絡(luò)。多層神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)DNN其實(shí)也基本一樣,DNN也叫做多層感知機(jī)(MLP)?! NN按不同層的位置劃分,神經(jīng)網(wǎng)絡(luò)層可以分為三類,輸入層,隱藏層和輸出層,如下圖示例,一般來說第一層是輸入層,最后一層是輸出層,而中間的層 [ 查看詳細(xì) ]

熱門主題

樹莓派    linux   
關(guān)于我們 - 廣告服務(wù) - 企業(yè)會員服務(wù) - 網(wǎng)站地圖 - 聯(lián)系我們 - 征稿 - 友情鏈接 - 手機(jī)EEPW
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權(quán)所有 北京東曉國際技術(shù)信息咨詢有限公司
備案 京ICP備12027778號-2 北京市公安局備案:1101082052    京公網(wǎng)安備11010802012473