博客專欄

EEPW首頁(yè) > 博客 > 卷積神經(jīng)網(wǎng)絡(luò)中的平移等變性分析

卷積神經(jīng)網(wǎng)絡(luò)中的平移等變性分析

發(fā)布人:計(jì)算機(jī)視覺工坊 時(shí)間:2023-05-20 來源:工程師 發(fā)布文章

卷積神經(jīng)網(wǎng)絡(luò)(CNN)具有平移等變性的觀點(diǎn)在某種程度上深入人心,但很少有人去探尋其原因或者理論根據(jù)。這篇文章將對(duì)這個(gè)問題進(jìn)行系統(tǒng)地講解,為后續(xù)進(jìn)一步研究CNN的其他等變性和不變性設(shè)計(jì)夯實(shí)基礎(chǔ)。

介紹

在機(jī)器學(xué)習(xí)中,我們通常關(guān)注模型的靈活性。我們希望知道選擇的模型實(shí)際上能夠完成我們想要的任務(wù)。例如,神經(jīng)網(wǎng)絡(luò)的通用逼近定理使我們相信神經(jīng)網(wǎng)絡(luò)可以近似任何所需精度的廣泛類別的函數(shù)。但完全的靈活性也有缺點(diǎn)。雖然我們知道我們可以學(xué)習(xí)目標(biāo)函數(shù),但也存在許多錯(cuò)誤的函數(shù),它們?cè)谖覀兊挠?xùn)練數(shù)據(jù)上看起來完全一樣。如果我們是完全靈活的,我們的模型可能會(huì)學(xué)習(xí)其中任何一個(gè)函數(shù),一旦我們移開了訓(xùn)練數(shù)據(jù),我們可能無(wú)法進(jìn)行泛化。因此,需要對(duì)網(wǎng)絡(luò)的靈活性加以限制。卷積神經(jīng)網(wǎng)絡(luò)是減少靈活性的一個(gè)著名成功案例。相較于早期的MLP網(wǎng)絡(luò),CNN的卷積犧牲了一部分靈活性,但實(shí)現(xiàn)了圖像數(shù)據(jù)的平移等變性,這對(duì)于圖像處理是十分重要的性質(zhì)。

什么是平移等變性映射

簡(jiǎn)而言之,等變性映射是保留變換的代數(shù)結(jié)構(gòu)的映射。作為一個(gè)特殊情況,平移等變映射是一種映射,當(dāng)輸入被平移時(shí),會(huì)導(dǎo)致一個(gè)映射發(fā)生相應(yīng)的平移,如下圖所示:

圖片

當(dāng)左邊的輸入圖像被平移一定的量時(shí),輸出特征圖也會(huì)被相同的量進(jìn)行平移。具體而言,如下圖所示,

圖片

圖片

輸入圖像顯示數(shù)字“4”,向右平移得到另一個(gè)輸入圖像。分別是通過平移等變映射計(jì)算得出的特征圖。在這種情況下,通過將傳遞給得到的特征圖相當(dāng)于對(duì)特征圖做相同的平移得到的特征圖。

卷積的平移等變性證明

首先讓我們寫下卷積的定義:

本質(zhì)上,這定義了一個(gè)相關(guān)性(Correlation)而不是卷積(Convolution)。然而,在深度學(xué)習(xí)領(lǐng)域中的慣例是將其稱為卷積,這里我們將沿用這個(gè)慣例。在這里,都有個(gè)通道。為了簡(jiǎn)潔,本文中我們?nèi)?span style="margin: 0px; padding: 0px; outline: 0px; max-width: 100%; box-sizing: border-box !important; overflow-wrap: break-word !important; cursor: pointer;">。

現(xiàn)在,我們的目標(biāo)是,給定一張圖像,我們將用濾波器對(duì)其進(jìn)行卷積。然后,我們想驗(yàn)證對(duì)于任何平移,以下兩個(gè)操作是相同的:

  • 平移,然后將結(jié)果與進(jìn)行卷積。
  • 進(jìn)行卷積,然后將結(jié)果平移。

因此,我們需要證明的方程是:

證明

注意到我們可以通過替換重寫卷積:

現(xiàn)在我們來分別寫出我們想要證明的等式兩邊的定義。首先,對(duì)于  的定義:

還有  的定義:

這兩個(gè)表達(dá)式是相等的,所以證畢。

思考

值得進(jìn)一步思考的是,這種等價(jià)性為什么成立。我們進(jìn)行的 的替換之所以有效,有兩個(gè)原因:

  • 這個(gè)替換是從的雙射。
  • 求和是在整個(gè)空間上進(jìn)行的。

這兩個(gè)特性加在一起可以確保,在左邊求和式中出現(xiàn)的每一項(xiàng)也都會(huì)出現(xiàn)在右邊的求和式中,反之亦然。

同時(shí),這種推理方法與卷積神經(jīng)網(wǎng)絡(luò)中的平移等變性的實(shí)際局限性相符,即卷積不是完全的平移等變性。這是因?yàn)榭倳?huì)在邊界上丟失信息,換句話說,在實(shí)際應(yīng)用中,并不是對(duì)整個(gè)求和,而只對(duì)其一個(gè)子集求和。這違反了上面的第二點(diǎn),因此替換并不完全成立,導(dǎo)致了卷積的平移等變性的局限性。


*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉