博客專欄

EEPW首頁 > 博客 > 地平線Vision Mamba:超越ViT,最具潛力的下一代通用視覺主干網絡

地平線Vision Mamba:超越ViT,最具潛力的下一代通用視覺主干網絡

發(fā)布人:地平線開發(fā)者 時間:2025-02-08 來源:工程師 發(fā)布文章

圖片

? Vision Mamba 論文鏈接:

https://arxiv.org/abs/2401.09417

? 項目主頁:

https://github.com/hustvl/Vim



簡介



本文的工作Vision Mamba[1]發(fā)表在ICML 2024。研究的問題是如何設計新型神經網絡來實現高效的視覺表示學習。該任務要求神經網絡模型能夠在處理高分辨率圖像時既保持高性能,又具備計算和內存的高效性。先前的方法主要依賴自注意力機制來進行視覺表示學習,但這種方法在處理長序列時速度和內存使用上存在挑戰(zhàn)。論文提出了一種新的通用視覺主干模型Vision Mamba,簡稱Vim1,該模型使用雙向狀態(tài)空間模型(SSM)對圖像序列進行位置嵌入,并利用雙向SSM壓縮視覺表示。在ImageNet[2]分類、COCO[2]目標檢測和ADE20k[3]語義分割任務中,Vim相比現有的視覺Transformer[4](如DeiT[5])在性能上有顯著提升,同時在計算和內存效率上也有顯著改進。例如,在進行分辨率為1248×1248的批量推理時,Vim比DeiT快2.8倍,GPU內存節(jié)省86.8%。這些結果表明,Vim能夠克服在高分辨率圖像理解中執(zhí)行Transformer樣式的計算和內存限制,具有成為下一代視覺基礎模型主干的潛力。


圖片

圖1  本文所提出的Vision Mamba (Vim)和基于Transformer的DeiT模型進行精度與效率對比:Vim在圖像分類、目標檢測、語義分割、實例分割任務上獲得了更好的精度,且在高清分辨率圖像處理上呈現出巨大的優(yōu)勢。



研究背景



圖像表示學習是計算機視覺領域的重要研究課題,其目的是通過模型學習從圖像中提取有意義的特征,從而應用于各種視覺任務中。目前,視覺Transformer(Vision Transformer, ViT[4])和卷積神經網絡(Convolutional Neural Networks, CNNs)是圖像表示學習中最常用的方法。然而,這些方法在理論上存在一些局限性。


視覺Transformer利用自注意力機制能夠取得全局的感受野,在大規(guī)模自監(jiān)督預訓練和下游任務中表現出色,但其自注意力機制在處理長序列依賴和高分辨率圖像時,帶來了計算和內存的巨大開銷。具體而言,自注意力機制的計算復雜度是輸入的圖像塊序列長度的平方,這使得其在處理高分辨率圖像時非常耗時且占用大量內存。盡管一些研究提出了改進方法,如窗口注意力機制[6,7],但這些方法雖然降低了復雜度,但導致感受野被局限在局部的窗口內部,失去了原本全局感受野的優(yōu)勢。


另一方面,卷積神經網絡在處理圖像時,通過使用固定大小的卷積核來提取局部特征。然而,卷積神經網絡在捕捉全局上下文信息方面存在局限性,因為卷積核的感受野是有限的,雖然一些研究引入了金字塔結構或大卷積核來增強全局信息提取能力,但這些改進仍然無法完全克服CNN在處理長序列依賴方面的不足。


在自然語言處理領域,Mamba[11]方法的出現給高效率長序列建模帶來了很好的發(fā)展契機。Mamba是狀態(tài)空間模型(state space model, SSM)方法的最新演進。Mamba提出了一種輸入自適應的狀態(tài)空間模型,能夠更高質量地完成序列建模任務。與此同時,該方法在處理長序列建模問題時有著次二次方的復雜度與更高的處理效率。然而,Mamba方法并不能夠直接應用于視覺表征學習,因為Mamba方法是為自然語言領域的因果建模而設計的,它缺少對于二維空間位置的感知能力以及缺少全局的建模能力。


圖片

圖2  本文所提出的Vim模型的網絡構架圖。


為了克服上述Transformer和CNN的理論局限性,啟發(fā)于自然語言處理領域Mamba的成功,本文提出了一種新的通用視覺主干模型——Vision Mamba (Vim)。該模型基于狀態(tài)空間模型[10](State Space Models, SSMs),利用其在長序列建模中的高效性,提供了一種新的視覺表示學習方法。該模型提出了雙向狀態(tài)空間模型來適配視覺特征的多方向性,并引入位置編碼來針對圖像單元進行標記。本文提出的Vim模型通過雙向SSM對圖像序列進行位置嵌入和壓縮,不僅在ImageNet分類任務上表現出色,還在COCO目標檢測和ADE20k語義分割任務中展示了優(yōu)異的性能。與現有的視覺Transformer如DeiT相比,Vim在計算和內存效率上有顯著提升。



Vision Mamba方法介紹




狀態(tài)空間模型

Vision Mamba結構


圖片



Vim模塊



效率優(yōu)化


Vim通過借助于Mamba的硬件友好的實現方式確保運行的效率。優(yōu)化的關鍵思想是避免GPU的I/O瓶頸和內存瓶頸。


IO高效性。高帶寬存儲器(HBM)和SRAM是GPU的兩個重要組成部分。其中,SRAM具有更大的帶寬,而HBM具有更大的存儲容量。標準的Vim的SSM操作在HBM上需要的I/O數量是O(BMEN),其中B為批量大小,M為圖像塊序列長度,E 表示擴展狀態(tài)維度,N 表示 SSM 維度。受到Mamba的啟發(fā),Vim首先將O(BME+EN)字節(jié)的內存從較慢的HBM讀取到較快的SRAM中。然后Vim在SRAM中獲取對應的參數,并執(zhí)行SSM操作,最終將輸出結果寫回HBM。此方法可以講I/O數量從O(BMEN)降低到O(BME+EN)從而大幅度提升效率。


內存高效性。為了避免內存不足問題并在處理長序列時降低內存使用,Vim選擇了與 Mamba 相同的重計算方法。對于尺寸為 (B.M,E,N)的中間狀態(tài)來計算梯度,Vim在網絡的反向傳遞中重新計算它們。對于激活函數和卷積的中間激活值,Vim 也重新計算它們,以優(yōu)化 GPU 的內存需求,因為激活值占用了大量內存,但重新計算速度很快。




實驗結果



該方法在標準的大型圖片分類數據集ImageNet-1K上進行驗證。并將分類訓練好的模型作為預加載權重用于下游圖片密集型預測任務中去,如COCO數據集上的目標檢測和實力分割任務, ADE20K上的像素級別的語義分割任務。



分類對比


如表1與當前主流的分類模型對比Vim顯示出了相當的精度,將Vim和基于CNN、Transformer和SSM的主干網絡進行比較,Vim顯示了相當甚至更優(yōu)的性能。例如,在參數量相同的情況下Vim-Small的準確率80.3%,比ResNet50[12]高出了4.1個百分點。與傳統的基于自注意力機制的ViT[4]相比,Vim在參數數量和準確率上均有顯著提升。與視覺Transformer ViT高度優(yōu)化的變種DeiT相比,Vim在不同模型尺度上均以相似的參數數量取得了更好的精度。


如圖1所示,Vim的優(yōu)越的效率足以支持更細粒度的微調,在通過細粒度微調后,與基于SSM的S4ND-ViT-B[13]相比,Vim在參數數量減小3倍的情況下達到了相似的精度,Vim-Ti+,Vim-S+和Vim-B+的結果均有所提高。其中,Vim-S+甚至達到了與DeiT-B相似的效果。


圖片

表1 ImageNet-1K分類骨干網絡對比



語義分割對比


在ADE20K語義分割數據集上,我們將ImageNet-1K上訓練好的權重加載到UperNet[14]分割器中,使用Vim作為骨干網絡進行特征提取,如表3所示,Vim取得了相比于CNN網絡ResNet更少的參數量以及更高的精度,去Transformer模型DeiT相比,Vim取得了更優(yōu)的精度。


圖片

表2 ADE20k語義分割對比


圖片

表3  COCO目標檢測和實例分割對比



目標檢測與實例分割對比


在COCO目標檢測與實例分割數據集上,我們將ImageNet-1K上訓練好的權重加載到Cascade-RCNN框架中,使用Vim作為骨干網絡進行特征提取,如表3所示,Vim取得相對于Transformer的DeiT更好的檢測框精度和實例分割精度。值得注意的是,在高清圖像輸入的目標檢測任務上,圖像輸入分辨率為1024×1024,由于Transformer的平方復雜度,需要將自注意力機制限制在固定大小的窗口內, 而Vim得意于其線性復雜度,無需窗口化,可以進行全局的視覺特征感知,從而取得了相對于表3中窗口化DeiT更好的精度。




消融實驗


雙向SSM。如表4所示,雙向SSM相較于原本的單向SSM取得了更高的分類精度, 且在下游的密集型預測任務上取得更為顯著的優(yōu)勢。這一結果顯示了本文提出的雙向設計對于視覺特征學習的必要性與重要性。


圖片

表4  雙向SSM建模消融實驗


分類策略。在表5中,我們探索了以下幾種分類策略:


圖片

表5  分類策略消融實驗


· Mean pool,將最后Vision Mamba編碼器輸出的特征進行平均池化。

· Max pool,將最后Vision Mamba編碼器輸出的特征進行最大化池化。

· Head class token,將類別標記詞元置于圖像塊序列頭部。

· Double class token,將類別標記詞元置于圖像塊序列兩端。

· Middle class token,將類別標記詞元置于圖像塊序列中間。


如表5所示,實驗結果表明,中間類別標記策略能夠充分利用SSM的循環(huán)特性和ImageNet中的中心對象先驗,展示了最佳的top-1準確率76.1。



總結



該論文提出了Vision Mamba (Vim),以探索最新的高效狀態(tài)空間模型Mamba作為通用視覺主干網絡。與以往用于視覺任務的狀態(tài)空間模型采用混合架構或等效的全局二維卷積核不同,Vim以序列建模的方式學習視覺表示,并未引入圖像特定的歸納偏置。得益于所提出的雙向狀態(tài)空間建模,Vim實現了數據依賴的全局視覺上下文,并具備與Transformer相同的建模能力,同時計算復雜度更低。受益于Mamba的硬件感知設計,Vim在處理高分辨率圖像時的推理速度和內存使用顯著優(yōu)于ViTs。在標準計算機視覺基準上的實驗結果驗證了Vim的建模能力和高效性,表明Vim具有成為下一代視覺主干網絡的巨大潛力。


參考文獻:

[1] Zhu L, Liao B, Zhang Q, et al. Vision mamba: Efficient visual representation learning with bidirectional state space model. In ICML 2024.

[2] Deng J, Dong W, Socher R, et al. Imagenet: A large-scale hierarchical image database. In CVPR 2009.[3] Lin T Y, Maire M, Belongie S, et al. Microsoft coco: Common objects in context. In ECCV 2014.

[4] Dosovitskiy A, Beyer L, Kolesnikov A, et al. An image is worth 16x16 words: Transformers for image recognition at scale. In ICLR 2021.

[5] Touvron H, Cord M, Douze M, et al. Training data-efficient image transformers & distillation through attention. In ICML 2021.

[6] Liu Z, Lin Y, Cao Y, et al. Swin transformer: Hierarchical vision transformer using shifted windows. In ICCV 2021.

[7] Li Y, Mao H, Girshick R, et al. Exploring plain vision transformer backbones for object detection. In ECCV 2022.

[8] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need. In NeurIPS 2017.

[9] LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition. In Proceedings of the IEEE 1998.

[10] Gu A, Goel K, Ré C. Efficiently modeling long sequences with structured state spaces. In ICLR 2022.

[11] Gu A, Dao T. Mamba: Linear-time sequence modeling with selective state spaces. arXiv preprint arXiv:2312.00752, 2023.

[12] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition. In CVPR 2016.

[13] Nguyen E, Goel K, Gu A, et al. S4nd: Modeling images and videos as multidimensional signals with state spaces. In NeurIPS 2022.

[14] Xiao T, Liu Y, Zhou B, et al. Unified perceptual parsing for scene understanding. In ECCV 2018.

[15] Cai Z, Vasconcelos N. Cascade r-cnn: Delving into high quality object detection. In CVPR 2018.

[16] Liao B, Wang X, Zhu L, et al. ViG: Linear-complexity Visual Sequence Learning with Gated Linear Attention. arXiv preprint arXiv:2405.18425, 2024.

[17] Zhu L, Huang Z, Liao B, et al. DiG: Scalable and Efficient Diffusion Models with Gated Linear Attention. arXiv preprint arXiv:2405.18428, 2024.

[18] Peebles W, Xie S. Scalable diffusion models with transformers. In CVPR 2023.


*博客內容為網友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。




相關推薦

技術專區(qū)

關閉