博客專欄

EEPW首頁(yè) > 博客 > CNN網(wǎng)絡(luò)結(jié)構(gòu)的發(fā)展——看懂這一篇就夠了(2)

CNN網(wǎng)絡(luò)結(jié)構(gòu)的發(fā)展——看懂這一篇就夠了(2)

發(fā)布人:數(shù)據(jù)派THU 時(shí)間:2023-08-04 來(lái)源:工程師 發(fā)布文章

6. MobileNet系列

V1

使用depthwise separable convolutions;放棄pooling層,而使用stride=2的卷積。標(biāo)準(zhǔn)卷積的卷積核的通道數(shù)等于輸入特征圖的通道數(shù);而depthwise卷積核通道數(shù)是1;還有兩個(gè)參數(shù)可以控制,a控制輸入輸出通道數(shù);p控制圖像(特征圖)分辨率。

圖片


圖片

V2

相比v1有三點(diǎn)不同:1.引入了殘差結(jié)構(gòu);2.在dw之前先進(jìn)行1×1卷積增加feature map通道數(shù),與一般的residual block是不同的;3.pointwise結(jié)束之后棄用ReLU,改為linear激活函數(shù),來(lái)防止ReLU對(duì)特征的破環(huán)。這樣做是因?yàn)閐w層提取的特征受限于輸入的通道數(shù),若采用傳統(tǒng)的residual block,先壓縮那dw可提取的特征就更少了,因此一開(kāi)始不壓縮,反而先擴(kuò)張。但是當(dāng)采用擴(kuò)張-卷積-壓縮時(shí),在壓縮之后會(huì)碰到一個(gè)問(wèn)題,ReLU會(huì)破環(huán)特征,而特征本來(lái)就已經(jīng)被壓縮,再經(jīng)過(guò)ReLU還會(huì)損失一部分特征,應(yīng)該采用linear。

圖片圖片


V3

互補(bǔ)搜索技術(shù)組合:由資源受限的NAS執(zhí)行模塊集搜索,NetAdapt執(zhí)行局部搜索;網(wǎng)絡(luò)結(jié)構(gòu)改進(jìn):將最后一步的平均池化層前移并移除最后一個(gè)卷積層,引入h-swish激活函數(shù),修改了開(kāi)始的濾波器組。

V3綜合了v1的深度可分離卷積,v2的具有線性瓶頸的反殘差結(jié)構(gòu),SE結(jié)構(gòu)的輕量級(jí)注意力模型。

圖片圖片


圖片


7. EffNet

EffNet是對(duì)MobileNet-v1的改進(jìn),主要思想是:將MobileNet-1的dw層分解層兩個(gè)3×1和1×3的dw層,這樣 第一層之后就采用pooling,從而減少第二層的計(jì)算量。EffNet比MobileNet-v1和ShuffleNet-v1模型更小,進(jìn)度更高。

圖片


圖片


8. EfficientNet

研究網(wǎng)絡(luò)設(shè)計(jì)時(shí)在depth, width, resolution上進(jìn)行擴(kuò)展的方式,以及之間的相互關(guān)系。可以取得更高的效率和準(zhǔn)確率。

圖片

9. ResNet

VGG證明更深的網(wǎng)絡(luò)層數(shù)是提高精度的有效手段,但是更深的網(wǎng)絡(luò)極易導(dǎo)致梯度彌散,從而導(dǎo)致網(wǎng)絡(luò)無(wú)法收斂。經(jīng)測(cè)試,20層以上會(huì)隨著層數(shù)增加收斂效果越來(lái)越差。ResNet可以很好的解決梯度消失的問(wèn)題(其實(shí)是緩解,并不能真正解決),ResNet增加了shortcut連邊。

圖片


10. ResNeXt

基于ResNet和Inception的split+transform+concate結(jié)合。但效果卻比ResNet、Inception、Inception-ResNet效果都要好??梢允褂胓roup convolution。一般來(lái)說(shuō)增加網(wǎng)絡(luò)表達(dá)能力的途徑有三種:1.增加網(wǎng)絡(luò)深度,如從AlexNet到ResNet,但是實(shí)驗(yàn)結(jié)果表明由網(wǎng)絡(luò)深度帶來(lái)的提升越來(lái)越小;2.增加網(wǎng)絡(luò)模塊的寬度,但是寬度的增加必然帶來(lái)指數(shù)級(jí)的參數(shù)規(guī)模提升,也非主流CNN設(shè)計(jì);3.改善CNN網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì),如Inception系列和ResNeXt等。且實(shí)驗(yàn)發(fā)現(xiàn)增加Cardinatity即一個(gè)block中所具有的相同分支的數(shù)目可以更好的提升模型表達(dá)能力。

圖片


圖片


11. DenseNet

DenseNet通過(guò)特征重用來(lái)大幅減少網(wǎng)絡(luò)的參數(shù)量,又在一定程度上緩解了梯度消失問(wèn)題。

圖片


12. SqueezeNet

提出了fire-module:squeeze層+expand層。Squeeze層就是1×1卷積,expand層用1×1和3×3分別卷積,然后concatenation。squeezeNet參數(shù)是alexnet的1/50,經(jīng)過(guò)壓縮之后是1/510,但是準(zhǔn)確率和alexnet相當(dāng)。

圖片


13. ShuffleNet系列

V1

通過(guò)分組卷積與1×1的逐點(diǎn)群卷積核來(lái)降低計(jì)算量,通過(guò)重組通道來(lái)豐富各個(gè)通道的信息。Xception和ResNeXt在小型網(wǎng)絡(luò)模型中效率較低,因?yàn)榇罅康?×1卷積很耗資源,因此提出逐點(diǎn)群卷積來(lái)降低計(jì)算復(fù)雜度,但是使用逐點(diǎn)群卷積會(huì)有副作用,故在此基礎(chǔ)上提出通道shuffle來(lái)幫助信息流通。雖然dw可以減少計(jì)算量和參數(shù)量,但是在低功耗設(shè)備上,與密集的操作相比,計(jì)算、存儲(chǔ)訪問(wèn)的效率更差,故shufflenet上旨在bottleneck上使用深度卷積,盡可能減少開(kāi)銷。

圖片

V2

使神經(jīng)網(wǎng)絡(luò)更加高效的CNN網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)準(zhǔn)則:

  • 輸入通道數(shù)與輸出通道數(shù)保持相等可以最小化內(nèi)存訪問(wèn)成本;
  • 分組卷積中使用過(guò)多的分組會(huì)增加內(nèi)存訪問(wèn)成本;
  • 網(wǎng)絡(luò)結(jié)構(gòu)太復(fù)雜(分支和基本單元過(guò)多)會(huì)降低網(wǎng)絡(luò)的并行程度;
  • element-wise的操作消耗也不可忽略。

圖片

14. SENet

圖片

15. SKNet

圖片


*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉