如何理解卷積,另外如何理解影象處理中的卷積?

時間 2021-05-06 08:27:36

1樓:烈日烤魚

影象上的卷積其實是乙個很簡單和傻瓜的概念,千萬別被名字嚇到了.

影象是二維陣列

方便起見,用一維陣列舉例.

卷積1 2 3 4 5 和 10 20 30它的結果也是乙個陣列.

這個陣列第乙個值就是:

1*10 + 2*10 + 3 * 30

其實就是對應項相乘,求和.

第二個值就是

2*10 + 3*20 + 4*30

其實就是錯一位後,對應項相乘,求和.

寫成公式就是

f(x) 就是陣列座標x的值的意思.

n就是錯位相乘時錯開的位置.

注意這裡和訊號裡常用的

看起來略有不同,但其實本質一樣的(你把g裡的數倒過來就是了)影象無非是二維陣列, 無非就是兩個二維矩陣錯位相乘再求和.

卷積其實是個很簡單的運算,比矩陣相乘還簡單(矩陣相乘還得行列對應乘,卷積直接對應項相乘就行了).

2樓:

看到有回答已經說過了鵪鶉:如何理解卷積,另外如何理解影象處理中的卷積?

言簡意賅,一語中的。

所以我認為,卷積的本質是

提取影象不同頻段的特徵

具體可以移步本人拙作,偏科普性質 [CV] 通俗理解『卷積』——從傅利葉變換到濾波器

3樓:關小熊

這個問題下應該大部分都是學電或者機電的答題者

但是我想從機械振動方面回答下這個問題

考慮有乙個單質量振動系統,M是質量,K是彈簧彈性係數,C是阻尼

那麼應該得到縱向的力平衡式

根據高數,我們知道這個方程應該應該有兩個解,通解和特解。通解不用多說,關鍵在於特解

對於非週期性激勵的解法有兩種,其中之一就是卷積

現在先不管原來的激勵

考慮有乙個脈衝訊號(狄克拉函式),只在該瞬間作用,之後為自由振動

(如圖a),脈衝作用後會使

根據尤拉祖傳的微分方程解法

將代入到式(自由振動)

則有我們將稱為原方程的特徵多項式,根據這個多項式解得一對帶負實部的共軛復根和。得到

現在引入條件

解得和這樣就得到了函式(忘記了叫什麼TAT),它表示了系統特徵,即受到乙個脈衝激勵之後自由振動輸出的響應。

現在回到原問題,如果我們將的每乙個瞬時輸入都當作乙個脈衝激勵,並且疊加之前系統的狀態,則可以求得在激勵下的響應。

所以有,卷積的結果就是響應的特解部分。

卷積的構成可以這樣理解

先將看作一系列幅值不同的脈衝訊號

脈衝的強度由其面積確定,所以在任意處,有乙個大小為的脈衝,並且它對應的響應是,因為在處輸入脈衝後,只剩下的時間供其自由振動。

最後將所有的位移全部疊加在一起,得到

再取極限

4樓:Michael Jackson

乙個單位脈衝訊號,經過乙個卷積核,得到的結果,就是這個卷積核。

乙個影象是乙個不同幅度的脈衝訊號的n*m陣列,經過乙個卷積核,得到的結果,就是個經過n*m個不同幅度的平移後的卷積核的疊加。

例如,高斯模糊,可以認為是將n*m個高斯核給疊加起來了。那麼這個影象就是由高斯核表達的。細節資訊被衰減了,是因為高斯核無法表達細節。(這樣說不準確,求指正)

例如,gabor濾波,可以認為是將n*m個紋理塊疊加起來了,那麼這個影象就是由一種紋理塊表達的。平滑部分被衰減了,是因為紋理塊無法表達平滑部分。(這樣說不知道對不對,求指正,高頻的正弦訊號可以表達直流訊號嗎?

好像不可以吧)

所以,是不是可以認為,卷積主要描述線性濾波。比如鏡片造成的模糊、視覺中感受方向的細胞。

高票答案中用投影解釋卷積,挺形象的,其實線性濾波就是投影、基底變換?

5樓:水木八刀

從訊號與系統的角度講卷積是線性時不變系統才有的運算

具體推導是先將輸入訊號按基函式展開,然後利用線性時不變特性得到輸出訊號為輸入訊號與系統單位衝激響應的卷積。

兩個訊號的卷積是把乙個訊號當成系統衝激響應來推演。離散和二維情況都可以類似推導。 這個解釋物理上不是很直觀,但從數學角度看是比較嚴格且容易接受的。

此外,順便再對線性時不變性以及因果性做一些說明。可以看到所謂線性系統是指輸出是輸入訊號及其延時的線性疊加,可以把看成對的貢獻因子。所以如果出現有等對輸出貢獻,則必然不是線性系統了; 而如果貢獻因子(加權因子)與有關則必然不是時不變系統。

顯然描述卷積的式子中不存在上述問題。

所謂因果系統是指時刻輸出僅與時刻及其以前時刻的輸入有關, 因此上面卷積的式子中 t" eeimg="1"/>也即時的貢獻因子必須為0,也即,因果系統必須保證

6樓:李帥

卷積是基於線性時不變系統的,當輸入為在零時刻為一其他時刻為零(暫且記做δ(t))時,輸出為h(t)。任意輸入x(t)可以分解為無窮個k倍的δ(t+t0)相加,那麼,由時不變性,輸入δ(t+t0)輸出h(t+t0),由線性,輸入為kδ(t+t0)相加,輸出為kh(t+t0)相加。這就是卷積要做的事情,我們大家常見的卷積公式x(t)*h(t)=∫x(τ)h(t-τ)dτ不就是把輸入x分解為∫x(τ)δ(t-τ)dτ,對應的輸出為∫x(τ)h(t-τ)dτ。

所以說,卷積是由輸入以及輸入為δ(t)時的輸出h(t)(單位衝激響應)得出輸出的一種運算,當然前提是系統為線性時不變的。h(t)就決定了系統的全部性質。

在頻域上,卷積變乘積。

首先,訊號如exp(st)有個很好的性質,那就是它經過線性時不變系統的輸出為H(s)·exp(st),其中H(s)=∫h(t)exp(-st),為什麼呢,可以證明exp(st)*h(t)=∫h(τ)exp(s(t-τ))dτ=exp(st)∫h(τ)exp(-sτ)dτ= exp(st) H(s)

。然後我們考慮任意訊號x(t)可以分解為∫X(s)exp(st)ds(其實這就是傅利葉逆變換做的工作啊,傅利葉逆變換就是訊號的分解,然後這個『任意』不準確,應該是滿足迪里科里條件,但是不深究的話也可以,不影響理解)。

同樣的, x(t)進入線性時不變系統,輸出是什麼?利用線性可以得出,輸出=∫X(s)H(s)exp(st)ds。

也就是說,輸入到輸出,對應不同的exp(st),係數由X(s)變為X(s)H(s)這就是卷積變乘積了。

其實大家把s換成jw就是傅利葉變換了。

其實δ(t-t0)跟exp(st)都是對訊號的分解,然後利用系統的線性時不變性推出輸出訊號, δ(t-t0)這個分解更簡單明顯,但是計算輸出要用到卷積,而 exp(st)分解則是傅利葉的重大貢獻,不像 δ(t-t0)那麼直觀,但它的輸出計算則是乘法運算了,而且輸出仍為 exp(st)的形式只是係數乘了個H(s),因此這種分解方式也是有很大好處的。

以上分析用的都是連續訊號,其實離散訊號也一樣了,就是積分變成累加和了。

7樓:

對於影象而言,離散卷積的計算過程是模板翻轉,然後在原影象上滑動模板,把對應位置上的元素相乘後加起來,得到最終的結果。如果不考慮翻轉,這個滑動-相乘-疊加的過程就是相關操作。事實上我也一直用相關來理解卷積。

在時域內可以從兩個角度來理解這樣做的含義。

一種是濾波,比如最簡單的高斯模板,就是把模板內畫素乘以不同的權值然後加起來作為模板的中心畫素值,如果模板取值全為1,就是滑動平均;如果模板取值為高斯,就是加權滑動平均,權重是中間高,四周低,在頻率上理解就是低通濾波器;如果模板取值為一些邊緣檢測的模板,結果就是模板左邊的畫素減右邊的畫素,或者右邊的減左邊的,得到的就是影象梯度,方向不同代表不同方向的邊緣;

另一種理解是投影,因為當前模板內部影象和模板的相乘累加操作就是影象區域性patch和模板的內積操作,如果把patch和模板拉直,拉直的向量看成是向量空間中的向量,那麼這個過程就是patch向模板方向上的投影,一幅影象和乙個模板卷積,得到的結果就是影象各個patch在這個方向上的response map或者feature map;如果這樣的模板有一組,我們可以把這一組看成一組基,得到的一組feature map就是原影象在這組基上的投影。常見的如用一組Garbor濾波器提取影象的特徵,以及卷積神經網路中的第一層,影象在各個卷積核上的投影。

8樓:wangshanshi

忘的差不多了,不過好像一維二維都是相同的:我想在頻域做乘法,對應到時域是什麼運算?這個運算就叫卷積。

印象中卷積本身沒有什麼意思-----除了多項式相乘,沒有見過單獨為了使用卷積而使用卷積的。

9樓:

把影象訊號理解為乙個隨機變數X(2維的),把卷積核理解為另乙個隨機變數Y(也是2維的),卷積可以理解為隨機變數和的分布,即,X+Y的分布。

10樓:majic

我現在只學習了訊號處理方面的卷積,影象處理方面我只能推測。

來看訊號處理中如何出現卷積的。假設B是乙個系統,其t時刻的輸入為x(t),輸出為y(t),系統的響應函式為h(t),按理說,輸出與輸入的關係應該為

Y(t)=h(t)x(t),

然而,實際的情況是,系統的輸出不僅與系統在t時刻的響應有關,還與它在t時刻之前的響應有關,不過系統有個衰減過程,所以t1(

y(s)=∫x(t)h(s-t)dt。

卷積是人為定義的一種運算,就是為了計算的方便規定的一種演算法。兩個函式普通乘積的積分變換(傅利葉變換與拉普拉斯變換)與這兩個函式積分變換的卷積建立了關係,使我們只要會求兩個函式的變換,利用卷積就可以求這兩個函式乘積的變換

卷積在資料處理中用來平滑,卷積有平滑效應和展寬效應. (我感覺在影象影象處理方面有平滑作用吧)

如何理解卷積神經網路(CNN)中的卷積和池化?

施念 我的理解 乙個個卷積核相當於對影象進行區域性特徵提取,從而產生不同的feature map,具體的,在滑動過程中,某pixel所在的卷積區域與卷積核相似 相關 程度大的得到的值越大。多層卷積相當於進行深層次 高維度,更抽象 的特徵提取。遲化層相當於對之前卷積提取到的每個feature map的...

如何理解一維卷積神經網路的輸入?

diablo 一維卷積的含義是在做卷積運算時,卷積核在輸入矩陣上的移動方向只有乙個維度,就是從上往下移動 輸入是乙個二維的矩陣是沒問題的,只要你的卷積核移動方向只有乙個維度,那麼這就是一維卷積 這意味著做一維卷積時,卷積核的寬度與輸入矩陣的寬度是相等的,否則就需要左右移動卷積核了,就不是一維卷積了 ...

卷積神經網路如何應用於影象分割

Lighthouse 這是最早期的利用卷積網路作分割的思路,是可以的,但是實時性比較差。FCN是早期將卷積神經網路作分割的經典方法,隨後,各種各樣的分割網路都被提出,主要分為以下三種型別 1 FCN 與淺層特徵相交加互 FCN有三個輸出分枝,FCN 32s是將特徵圖直接縮放至原圖大小 FCN 16s...