1樓:ysy
你好,我想問下,我有3列資料,其中兩列是輸入x,x1,一列是輸出y,輸入與輸出之間的關係是y = a* tf.exp(-b * x)+x1+c ,其中a,b,c是未知的,我通過curve_fit函式可以求出a,b,c,但是任務要求用模型去求,我不懂要用什麼深度學習模型可以求解這個,剛剛接觸了深度學習,不是很懂要從哪方面下手
2樓:
我就拿Relu啟用函式的多層感知機(全連線網路)舉例子吧。
對於1到1的對映,在數學上很容易證明這個多層感知機等價於乙個分段線性函式。
這樣,在你的訓練集的x範圍內,結果足夠準,但是超出下標範圍很多的情況下(超出了分段線性的最後一段後),就變成線性函式了,素數擬合別想啦。
總的問題是,神經網路在內插上效果應該還行,但是在外推上效果不太好。外推的形式和啟用函式有關。比如Relu就總是外推為線性函式,Sigmoid、tanh等總是外推為常數。
(你想想當x是正負無窮大的時候,你的啟用函式的漸進形式如何就能做大致判斷了)
3樓:
我的理解是,不可以。如果通項公式都沒有,根本學不到什麼吧。
首先從樣本來說,把自然數都輸給模型,直接輸的話應該會樣本不平衡。但是如果取樣輸的話,又會缺失資料集資訊。
另外,神經網路並不是什麼都可以學的,很多現在表現不錯的模型,基本上都是rule-based或者過程可解釋,只是神經網路的表現更好。但是素數這個東西本身不具備這樣的特點。
神經網路是不是可以擬合任何問題?
王琰 不行的。足夠深的神經網路可以擬合的是任意 函式 但不是所有有輸入輸出的問題都可以構成函式。形如y f x 的函式最基本的屬性是乙個因變數 輸出y 可以對應多個自變數 輸入x 但乙個自變數只能對應乙個因變數。然而在實際世界中存在大量的問題是同一輸入x對應多種輸出y 比如知乎乙個問題有多個答案 這...
神經網路為什麼可以(理論上)擬合任何函式?
堅持30天 一層非線性單元 越多越精確 足以,不需要多層,再多的層也只是改變曲線的形狀,超出訓練集的部分就按L2正則表達。原因就是方程組合啊。例如乙個方程一條線,兩個方程組合在一起就是兩條線合在一起,通過權重和偏置就可以改變各自線的形狀,這就可以組合出任意形狀的曲線。如果是好幾條直線組合在一起還是直...
有什麼文章總結了神經網路防止過擬合的tricks之類嗎?
天堂之拳 方法是人用的,切忌死記硬背。比較老一點的 neural networks tricks of the trade Practical recommendations for gradient based training of deep architectures A practical ...