卷積神經網路影象處理卷積時,為啥要旋轉180 ?

時間 2021-05-05 14:16:26

1樓:Feynman

問題中不太準確,糾正如下:

卷積神經網路影象處理卷積時,沒有旋轉180度。

數學上的卷積,比如訊號處理/傳統影象處理,處理卷積時,才旋轉180度。

這個問題在https://www.

zhihu.com/question/52237725/answer/545340892有非常詳細的解釋,我這裡搬運下結論:

簡單來說,數學中的卷積由於使用場景的原因,比如 https://www.

zhihu.com/question/22298352/answer/637156871提到的訊號強度隨時間衰減的例子,需要將「卷積核」進行旋轉;而卷積神經網路中的卷積核由於是學習的,所以沒有旋轉的必要。

2樓:夜是故鄉明

卷積神經網路中的運算其實是互相關運算,只是由於歷史原因被稱呼為卷積運算。

只需將互相關運算核陣列上下翻轉一次,再左右翻轉一次,所得結果即為卷積運算結果

從結果上看他們的差異只是陣列中數值位置的180°旋轉,本質上都是逐元素相乘再求和

深度學習中,核陣列是學習所得,位置不影響或者輕微影響最終收斂的損失值

3樓:「已登出」

卷積的定義就是這樣的哇

你可以康康那個連續的公式

4樓:Hyyyy

cnn那個卷積嚴格來說應該叫相關係數吧相關濾波用的就是這個公式和嚴格的卷積定義差了180°

但是網路引數是隨機初始化的其實轉不轉感覺差距不大,只是一種約定俗成的概念吧

5樓:小木

一般的深度學習框架裡,CNN用的是相關,不是卷積(不過cudnn裡具體的卷積實現方式是什麼,沒有仔細研究過,好像有fft,winograd,矩陣乘等方式),不過這兩個都行,效果是一樣的,因為卷積核本來就是學出來的。兩種計算方式不一樣,學出來的卷積核也會不一樣,但能達到的效果應該基本一致,而效果就是最終損失函式所要的那個效果。

6樓:Allenhong

你的公式是數學意義上的卷積運算,卷積需要翻轉,平移,相乘求和,三個運算,乙個都不能少。

對於CNN來說,用的是數學意義上的相關運算,相對於卷積來說,少了翻轉。

對於CNN來說,運用相關和卷積運算,到最後都可以達到一樣的效果,同時相關運算的複雜度還更低(少了翻轉),因此CNN中一般運用相關運算,而非數學涵義上的卷積運算

7樓:Gabe

轉180度是從 LTI system 推出來的。再之前是從delta function的sifting property來的。

不轉180度的公式叫correlation。CNN不轉180度所以有人說名字裡的convolutional應該改成correlational

8樓:一天不學渾身難受

卷積在訊號處理中的定義就是如此,你可以想象成乙個訊號翻轉後從負無窮的地方向正無窮移動,計算移動過程中的相交部分。

但在數字影象處理中,卷積核其實並不需要旋轉而是直接對應項相乘就行了,神經網路中也是如此。

卷積神經網路如何應用於影象分割

Lighthouse 這是最早期的利用卷積網路作分割的思路,是可以的,但是實時性比較差。FCN是早期將卷積神經網路作分割的經典方法,隨後,各種各樣的分割網路都被提出,主要分為以下三種型別 1 FCN 與淺層特徵相交加互 FCN有三個輸出分枝,FCN 32s是將特徵圖直接縮放至原圖大小 FCN 16s...

CNN(卷積神經網路) RNN(迴圈神經網路) DNN(深度神經網路)的內部網路結構有什麼區別?

可可噠 寫一點個人理解吧。CNN 它是以 層 layer 為單位的,每一層的結構可以完全不一樣。常見的CNN層有卷積層 池化層 softmax層 池化層 這些基礎層之上還有諸如ResNet的遠連線,GoogLeNet的Inception層,用來實現一些特定的功能 深層網路 多尺度特徵提取等 RNN ...

用卷積神經神經網路做遙感影象分類,需要對影象做哪些預處理?

檸檬陳 對地物資訊分類。那我感覺你這個問題有點像影象語義分割啊。emmm.真按分割做的話好像難度係數太大。我之前有做過簡單的遙感影象語義分割。但是題主你的描述,感覺問題更複雜些。好吧回到你的問題 先做個預處理,去噪,把img的直方圖畫出來,看看雜訊,看看pixel value分布啥的。有條件的話,做...