如何理解機器學習中說深度學習和整合學習是黑箱模型?

時間 2021-05-12 00:02:35

1樓:Ada

深度學習和整合學習都是機器學習裡面的分支,裡面主要涉及到的技術就是神經網路。而之所以說它們是黑箱模型,主要是因為它們所使用的神經網路技術的不可解釋性。

神經網路是一種模擬人的大腦思考計算的演算法,裡面涉及到了很多的計算層級,每乙個層級裡面又有很多的計算節點,同一層級的各個節點之間,不同層級之間都可能會交叉交換資訊,而每乙個節點的計算引數又都是多變的,這就導致整個神經網路的計算複雜度是相當高的,而正由於這樣的計算複雜度,神經網路才能在解決某些大資料問題時得到超出一般演算法的準確度。但是這種規模的計算複雜度已經遠遠超出了人的肉眼分辨和計算的能力,即使我們知道整個神經網路的結構和每個節點的計算方法也無法通過簡單直接的公式進行說明,因此說神經網路具有黑箱的屬性。

乙個簡單神經網路的結構和計算

而神經網路的這種黑箱屬性也限制了它在某些領域的快速應用,比如銀行貸款審批、財務報銷,這些都與企業的執行息息相關,任何乙個錯誤都會給企業帶來很大的損失,因此需要結果準確且具有可解釋性,為了讓神經網路可以快速應用到這些領域,目前也衍生了一些方法來試圖對神經網路的結果進行解釋,比如Interpretable Latent Features就是去試圖了解每乙個節點的功能,再根據每乙個節點的功能來推導每一層以及整個神經網路的工作原理。

2樓:icebear

現在隨著可解釋性的發展,nn也可以說逐漸從黑箱變成灰箱了,這也是乙個很有意思的方向。類似於乙個開關,隨著nn的加深和train你可以逐漸看出那一部分是影響哪一部分特種的,類似乙個漸變開關,這是現在nn的重頭戲了差不多,僅自己學習的看法。

3樓:

剛入門說下自己的想法,大家辯證的看。

Classification而言,NN可以fit random noise,也就是說,最後loss為0。

但是由於引數過多,你不知道自己學到的這個loss為0的結果,是不是更能generalize到test集的結果。如果是簡單的memorize,基本上就無法generalize;如果是學到了很好feature,就可以generalize。

悲劇的是,我們不知道怎麼去讓NN更好的generalize,所謂的batch normalization,weight decay等等其實都是regularization。至於乙個NN究竟是否work,為什麼加了這個regularization可以,加了那個不可以;為什麼乙個網路架構在一類問題上好,另外的問題也不會太差,等等等等都是玄學。

學習python和機器學習演算法,深度學習演算法就是學不會,心情很壓抑怎麼辦?

陽光 不知道你多大年齡,阿姨我今年快48了,去年開始學習機器學習,深度學習,也經歷很多燒腦的日子,但是要相信自己,多去網上搜尋,書讀百遍其意自現,死磕到底,沒什麼學不會的,想想又不是讓你造原子彈 我執 看到這個題目我頓時會心一笑,彷彿見到了過去的自己.回答分割線 我想題主應該是想問怎麼快速的學習演算...

機器學習和深度學習的區別和聯絡?

深度學習只是機器學習的一小塊,只是現在發展的最火,導致其名聲在外。深度學習特指由神經網路構成的多層結構,層數少了就不叫深度學習了。但是除去深度學習,機器學習還有很多傳統方法,PCA,SVM,Clustering,Tree等等方法。就我個人而言,普通工作深度學習用的其實並不多,各種基於樹的模型用的更加...

如何理解深度學習中的deconvolution networks?

寫寫理解,不對的請批評指正。卷積 輸入 H in W in,卷積核 k,stride,pad 輸出 H out W out 如果想輸入尺寸 輸出尺寸,stride 1,pad k 2如果想輸入尺寸 輸出尺寸,stride 1反卷積 就是卷積 適用場景 輸入尺寸 輸出尺寸,並且通過對輸入隔行補0 pa...