cnn中卷積核步長有什麼影響?

時間 2021-06-08 11:50:06

1樓:帶帶小師弟

現在一般卷積核大小都為3,步長如果超過3會使得部分資訊沒有進行卷積計算。1或者2主要影響feature map的size。根據實際需求來決定吧

2樓:Deathallows

卷積核的Size代表感受野的大小,卷積核的步長度代表提取的精度:

例如:Size為3的卷積核,如果step為1,那麼相鄰步感受野之間就會有重複區域;如果step為2,那麼相鄰感受野不會重複,也不會有覆蓋不到的地方;如果step為3,那麼相鄰步感受野之間會有一道大小為1的縫隙,從某種程度來說,這樣就遺漏了原圖的資訊,直觀上理解是不好的。

另外,當卷積核step為1時,輸出矩陣Size會和輸入矩陣Size保持一致;而卷積核step為2時,由於跨步會導致輸出矩陣Size降低為輸入矩陣Size的一半。由此會產生一種類似「池化」的效果,利用這一特性可以代替池化層。

例如在ResNet中,每隔幾層Layer卷積核step就設定為2,以此替代池化層來對圖形的Size進行壓縮,完成某種程度上的降維同時減少計算量,而中間層Layer卷積核的大小依然保持為1。

而在上述ResNet的支路中,跳層前後的主路矩陣Size可能會不一致(由於上述壓縮導致),這時候通過調整支路卷積核step的大小就能將層前主路矩陣對映成和層後主路矩陣一樣的Size,以此保持tensor的正常流動。

3樓:CurvaNord

步長(stride)就是卷積核在你原圖上每一步移動的距離。

步長小,提取的特徵會更全面,不會遺漏太多資訊。但同時可能造成計算量增大,甚至過擬合等問題。

步長大,計算量會下降,但很有可能錯失一些有用的特徵。

步長選多少沒有一套明確的標準,還是要看你輸入影象的大小和卷積核的大小。

總之在計算資源夠用的前提下,最好不要讓你卷積核錯失太多特徵哈。

反卷積 分數步長卷積 子畫素卷積有什麼相同點和不同點?

aHiiLn 反卷積是卷積的反向傳遞,也成為轉置卷積。下面來看乙個例子 使用2 2步長 即i 5,k 3,s 2和p 0 在5 5輸入上卷積3x3核心 使用2 2步長 即i 5,k 3,s 2和p 0 在5 5輸入上卷積3x3核心 它的反向傳遞等效於在2x2輸入 在輸入之間插入1個零 上卷積3x3核...

1維卷積核有什麼作用?

1,在不增加感受野的情況下,讓網路加深,從而引入更多的非線性。這句話的真正意思是 增加一層1x1xChannel的卷積層,網路深度增加了一層,引入了channel個權重,但是並沒有改變featuremap的大小。感受野如果不是1x1,一直是5x5,那麼幾層之後featuremap就越來越小,無法使網...

乘 的卷積核到底有什麼用

賴神回答的很棒了,就是融合通道特徵,28 28 1000 要變為28 28 100,如果直接卷積的話無法對1000個feature map很好的融合,所以加入1 1 100,然後就可以了,而且減少了計算量。 高斯定理 1 1的卷積核可以看成某種意義上的全連線層。舉兩個例子 輸入是 的feature ...