神經網路多樣性的意義何在?既然多層感知機在理論上已經可以擬合任何函式,為什麼要有不同的形式?

時間 2021-05-07 00:05:24

1樓:鐵心核桃

這是乙個好問題。

神經網路的「萬能擬合」和實際中結構多樣,乙個表達的是「存在性」,乙個表達的是「怎麼實現」的問題。

所謂的「能擬合」只是表明當模型足夠複雜「能力無極限」這件事。但是話說回來,不用神經網路這一點也能做到,神經網路不也就是乙個復合層數比較多的復合函式而已。

但是能力有了,不見得能輕易地達到這個最優的能力。在實際的具體任務中更多的結構設計是為了更快、更有效的得到那個最優的函式。

2樓:Xi Yang

理論可行 != 實際可行。不合適的模型結構會事倍功半,通常「事」會嚴重到根本不可能(在給定的記憶體和時間內)做到你想要的結果。

實際上機器學習的最主要問題,就是找到最適合描述你的問題的模型結構。

3樓:Pelhans

理論上能擬合任何函式的東西有很多。但理論是理論,實際應用中,我們的資料往往都很『髒』。這就導致這個函式很難學。

函式難學,資料又有限怎麼辦?想辦法加入先驗知識,或者增加模型引數,提公升表達能力。。。所以我們要CNN學習平移不變性,LSTM搞前後依賴等等不同的模型形式。

4樓:

神經網路相當於交通工具,比如說多層感知機相當於汽車,如果要從北京到莫斯科,開車也不是不可能,但是時間上來說代價太高,這樣各種相應的優化演算法就出來了,這就好比給車加上超級發動機。同時有的人想為啥不用飛機直接飛過去,這就好比如用其他結構的更好的神經網路。總之面對不同的場景需要不同的選擇,而不是一種網路形式的選擇

5樓:冷犬

理論上多層感知機可以擬合任意多項式函式,而任意函式又可以趨近於某n階多項式函式。但是理論上可以不代表就能

CNN、RNN、Attention、Transformer…設計這些不同形式的神經網路的意義在於,使用它們設計神經網路訓練,這個網路更有可能收斂,更有可能擬合出我們希望的函式。

STN(Spatial Transformer Networks)也告訴我們,雖然網路理論上能學習到提取特徵的方法,但是如果人去顯式設計特定的結構來提取特徵,那它會表現得更好。所以設計不同的神經網路結構並非無用功。

6樓:陳默

能擬合任何函式的東西很多,多項式也能擬合任何函式,spline也可以擬合任何函式。而機器學習不是給你個函式讓你擬合。

所謂擬合任何函式是指,當乙個函式上的sample點趨向「無窮」時你可以已任意精度逼近這個函式。而機器學習關心的問題是,在給定「有限」樣本時,去擬合這個未知的函式。

那麼,問題就變成在這有限的樣本上,什麼學習器能擬合那個未知函式擬合的最好。而不同的網路架構包含了設計者對問題的領域知識。資料也包含了關於那個未知函式的知識。

所以設計的好的結構也相當於獲得了更多的「樣本」.

舉個例子,假如你的資料是平移或旋轉不改變語義的,如果你的模型沒有model這一特性,那麼你就需要大量的做了平移和旋轉變換後資料才能學出這一特性。而如果你的模型顯式的model了這一特性,那麼你就不需要那麼多變換了的資料,相當於你模型中已經包含了無窮多平移和旋轉了的資料。

從統計學習理論角度來講,樣本數趨向於無窮時,學習器能收斂到真實的潛在模型,這叫asymptotic consistency。而對於機器學習來說,我們更關心的是學習器收斂到真實模型的速率,即asymptotic convergence rate。收斂率越好,意味著給定有限樣本下,學習器會更接近真實模型。

即使乙個學習器甚至不能在無窮樣本下收斂到真實模型,但是收斂速率很好,那我們也會用。這也是為啥線性模型會用的那麼多。

7樓:

深度網路的本質任務在於使用網路對問題的資訊結構進行表示, 不同的目標問題其資訊結構是不同的,當然我們需要使用與問題結構相匹配的網路結構來表示問題,不同的結構的表達的效率是不同的。同時,這也是深度學習的可解釋性的核心所在。

8樓:Jack Stark

多層感知機在理論上可以擬合任何函式,不代表我們可以訓練出理想的模型。

訓練神經網路是在乙個非常複雜的空間裡尋找最優解的過程,MLP可以擬合任意函式只能代表這個空間足夠複雜,最優解在裡面,不代表我們可以找到。

就好像《幾何原本》的五條基本公理可以推導出歐氏幾何的所有定理,這五條公理就像你說的MLP一樣,可以解決任何的歐氏幾何的證明題。但是我告訴你五條公理,你不一定能把幾何題做出來。所以我們還需要各種各樣的定理,針對不同的問題選擇不同的定理。

什麼是 神經多樣性 ?如何看待 2016 年世界自閉症日的主題中 神經多樣性 這一提法?

晝風 我才是4月2日出生的,就因為那天是世界自閉日,人們都帶有異樣的眼光。母親知道那天又是世界兒童圖書日,看我可伶才留下我。我是晚上凌晨出生的,我的生日改成了4月3日,日復一日,30年前,也是今天和昨天。感覺很神奇! Kayin Chen 疾病就是疾病。某某人心臟有問題,不能完成普通人心臟的功能,我...

如何在pytorch裡快速求出神經網路的jacobi矩陣?

羅秀哲 grad check裡有乙個現成的,不過會for迴圈便利每個operator 如果這個還能接受的話 巧克力工廠的查理 defjacobian inputs outputs return torch stack grad outputs i sum inputs retain graph Tr...

反對多樣性是有利的還是有害的?

Freya橘未成杍 社會進化從同質性向異質性的變化在人類整個文明和每乙個民族的文明進步都有表現。人口的增加和群體的聯絡導致了社會規模的擴大,而集中和分化是同一過程的兩個方面,量的增加必然導致結構和功能的複雜化。但社會進化同時也在不確定狀態向確定狀態發展,功能越分化,某種管理調節機制的存在就越重要,這...