神經網路中的歸一化除了減少計算量,還有什麼作用?

時間 2021-05-06 07:16:08

1樓:Nango 明楠

梯度下降時,讓模型收斂到正確的地方,而在不同量綱下梯度更新方向被帶偏。並且歸一化到合理範圍有利於模型泛化性(不會訓飛)。但是歸一化後的範圍太小就又會削弱表徵能力。

夜蘭:機器學習之歸一化(Normalization)

2樓:鄭小柒是西索啊

1、歸一化之後的資料,能夠減少計算複雜度,加快收斂;

2、避免造成梯度過飽和;

3、啟用函式的輸出是以「零為中心」,便於後續迭代優化;

3樓:王晗

除了減少計算量,還將資料歸一化到以0為中心,加快了神經網路收斂。

至於為什麼能夠提高效能,我談談我的理解。因為神經網路本質上是對資料的高度抽象,如果進行了歸一化,神經網路能夠更輕鬆地學習到資料中蘊含的模式,表現在外面就是效能更好,準確率更高,收斂速度更快。

4樓:lhy

把不同量綱的特徵放在同一量綱下比較。例如:房子面積100平公尺,臥室數量3間,這兩個特徵的單位不一樣,模型會傾向於房子面積,給予它更多的權重。

所以需要做標準化,把特徵限制在你需要的一定範圍內。標準化減少了計算量,可以加快收斂。

5樓:雨落晨曦

因為歸一化可以讓不同的特徵得到相同的權重傾向咯,建議看一眼李航老師或者周志華老師的書~另外神經網路做歸一化以後反向傳播值有正有負,經驗上認為這樣可以加速收斂

神經網路的訓練中要計算驗證集的損失函式嗎?

鄧冇 個人理解是驗證集的選取是用來挑選模型的,比如在比賽中,我現在訓練了10個模型,我怎麼確定哪個更好呢,就是通過驗證集。但是簡單切分訓練集和驗證集會使得訓練集的數量減少,這時可以考慮採用交叉驗證。 檸檬陳 我感覺驗證集的作用是乙個體驗當前訓練得到的model好壞的乙個 視覺化 指標。上面的答主也說...

神經網路中,怎麼計算各個特徵對模型的影響力有多大 以及怎麼給模型特徵加權 增加該特徵的影響力 ?

Juliuszh 簡單說幾個可考慮的思路 先驗的方法。分析該特徵取值方差的顯著性。如果特徵取值方差小,可以考慮用均值代替該特徵。通過理論計算或者蒙特卡洛方法,分析該特徵取值變化對網路最終結果的影響的顯著性。實驗的方法,將該特徵置 0 或者置均值,統計目標函式或相關評測指標變動的顯著性。 Xenoph...

神經網路中的dropout策略是乙個演算法嗎?還是將它看成乙個常數?

數學優先 綜合而言,上述過程可以分步驟為 將輸入通過修改後的網路進行前向傳播,然後將誤差通過修改後的網路進行反向傳播 對於另外一批的訓練樣本,重複上述操作1.從Hinton的原文以及後續的大量實驗論證發現,dropout可以比較有效地減輕過擬合的發生,一定程度上達到了正則化的效果。論其原因而言,主要...