神經網路可以擬合素數的通項公式嗎?

時間 2021-06-07 03:29:45

1樓:ysy

你好,我想問下,我有3列資料,其中兩列是輸入x,x1,一列是輸出y,輸入與輸出之間的關係是y = a* tf.exp(-b * x)+x1+c ,其中a,b,c是未知的,我通過curve_fit函式可以求出a,b,c,但是任務要求用模型去求,我不懂要用什麼深度學習模型可以求解這個,剛剛接觸了深度學習,不是很懂要從哪方面下手

2樓:

我就拿Relu啟用函式的多層感知機(全連線網路)舉例子吧。

對於1到1的對映,在數學上很容易證明這個多層感知機等價於乙個分段線性函式。

這樣,在你的訓練集的x範圍內,結果足夠準,但是超出下標範圍很多的情況下(超出了分段線性的最後一段後),就變成線性函式了,素數擬合別想啦。

總的問題是,神經網路在內插上效果應該還行,但是在外推上效果不太好。外推的形式和啟用函式有關。比如Relu就總是外推為線性函式,Sigmoid、tanh等總是外推為常數。

(你想想當x是正負無窮大的時候,你的啟用函式的漸進形式如何就能做大致判斷了)

3樓:

我的理解是,不可以。如果通項公式都沒有,根本學不到什麼吧。

首先從樣本來說,把自然數都輸給模型,直接輸的話應該會樣本不平衡。但是如果取樣輸的話,又會缺失資料集資訊。

另外,神經網路並不是什麼都可以學的,很多現在表現不錯的模型,基本上都是rule-based或者過程可解釋,只是神經網路的表現更好。但是素數這個東西本身不具備這樣的特點。

神經網路是不是可以擬合任何問題?

王琰 不行的。足夠深的神經網路可以擬合的是任意 函式 但不是所有有輸入輸出的問題都可以構成函式。形如y f x 的函式最基本的屬性是乙個因變數 輸出y 可以對應多個自變數 輸入x 但乙個自變數只能對應乙個因變數。然而在實際世界中存在大量的問題是同一輸入x對應多種輸出y 比如知乎乙個問題有多個答案 這...

神經網路為什麼可以(理論上)擬合任何函式?

堅持30天 一層非線性單元 越多越精確 足以,不需要多層,再多的層也只是改變曲線的形狀,超出訓練集的部分就按L2正則表達。原因就是方程組合啊。例如乙個方程一條線,兩個方程組合在一起就是兩條線合在一起,通過權重和偏置就可以改變各自線的形狀,這就可以組合出任意形狀的曲線。如果是好幾條直線組合在一起還是直...

有什麼文章總結了神經網路防止過擬合的tricks之類嗎?

天堂之拳 方法是人用的,切忌死記硬背。比較老一點的 neural networks tricks of the trade Practical recommendations for gradient based training of deep architectures A practical ...