我自己寫了乙個神經網路引數的搜尋演算法,請問有發表價值嗎?

時間 2021-05-11 22:23:10

1樓:MisT大野兔

高中做過類似的探索。前面有答主提到neat了,當時是嘗試基於neat訓練下9x9圍棋的模型。失敗告終,理由我分析主要在於1.解空間過大 2.ga的早熟問題被放大從而難以解決

我們知道ga搜尋解空間靠的是兩個運算元:交叉和突變。neat的工作主要就是設計了一種帶歷史標記的網路結構編碼方式,並在這種獨特的編碼上做交叉與突變,同時搜尋結構和引數。

為了解決早熟問題,neat(或者是hyper neat,記不清了)設計了一種距離度量,並給與族群中其他個體距離較遠的子代更高的fitness。

聽起來很美好,當時吸引我的是那年耶魯hackathon的第二(三?記不清了)名就是使用這個演算法訓練了乙個玩馬里奧的ai

所以同樣的問題當時被我搬到了圍棋上:由於很難設計乙個fitness評估agent下棋能力的強弱,我讓它們「對弈」,以輸贏子數作為fitness

很可惜失敗了。一是高中時p也不懂,nn是for loop實現的…cpython跑的巨慢,我還特別機智的用pypy跑…學生的小筆記本跑這樣效能的東西啥也搜不出來

另乙個問題是早熟。乙個有可能進化為李世石的解,訓練不充分時依舊有可能輸給隨機初始化的野路子選手—何況一開始大家都是野路子。所以跑了兩周搜了幾萬個迭代還是亂下

那時也不會cnn,不知道啥叫權重共享,所以解空間巨大無比。

過了一段時間我找了我們班下圍棋最厲害的哥們兒和我的模型下9x9和5x5圍棋,片甲不留。只有3x3我的程式可以先手贏他——點天元。

正當高中生沉迷自己的小天地時,alphago先後擊敗了二段樊麾和九段李世石,遂罷手。乙個月後步入正軌,收心高考,大學後開始系統學習真正的dl技術

後來想一想,或許解空間較小並且結構效能受引數初始化影響較小時,並且難以設計可微的目標函式時,這個方法確實有用武之地。可惜後來沒有繼續深入了

再後來有了nas。

不學無術,博君一笑。謹供題主參考

2樓:Daniel

我覺得不是GA沒用,可能這個問題沒有定義好,BP已經這麼好了為什麼還要用GA?GA效率十分低下。我覺得可以把GA用在BP不適用的神經網路上,那麼什麼神經網路不能直接用BP呢,顯然離散化引數的神經網路不能直接用BP (quantized neural networks)。

比如乙個神經網路的權值只能是0或者1 (XOR net),你可以試試GA,這樣的網路引數空間小很多,可能GA能有幫助。

3樓:

有發表價值,可以參考下面這篇

link.springer.com/article/10.1007/s00521-019-04453-w遺傳演算法和深度強化學習的結合會是新的方向嗎?

4樓:冰鎮小牛奶

可以發表啊,雖然沒有價值,但是可以發表啊。有一些適合學生的學會可以去投一下,不管做出來的東西有沒有價值,只要是自己做的就應該鼓勵。

5樓:我是誰啊

這種遺傳演算法不要求函式可微,通用性比較強,隨之而來的代價便是無法利用函式本身的特性(1階、二階導數等),搜尋效率是相對低下的,所以現在神經網路很少用這種進化演算法進行優化。

6樓:敲程式碼的quant

瀉藥。畢竟神經網路存在太多隨機性,權重和偏置項在初始化時的初始值不同都會影響最終的訓練結果。

固定了權重等引數以及batch size等超參,還需要保證每個epoch訓練時不要對batch進行shuffle。

以上可以通過固定生成隨機數的種子來解決。另外,為了提高置信程度,建議題主在保證超參以及外界條件一致的情況下,多做幾組實驗再進行驗證。

神經網路中的dropout策略是乙個演算法嗎?還是將它看成乙個常數?

數學優先 綜合而言,上述過程可以分步驟為 將輸入通過修改後的網路進行前向傳播,然後將誤差通過修改後的網路進行反向傳播 對於另外一批的訓練樣本,重複上述操作1.從Hinton的原文以及後續的大量實驗論證發現,dropout可以比較有效地減輕過擬合的發生,一定程度上達到了正則化的效果。論其原因而言,主要...

乙個神經網路可以有兩個損失函式嗎

可以首先,兩個loss加起來可以。其次分開的話,乙個跑一跑,另乙個跑一跑也成。想想有兩個空間低窪地群,一下往這跑跑一會那兒跑跑,還是能跑到乙個相對兩個空間都是低窪地的地方。不過有時候可能需要一些指導。 Dylan 這裡要區分是嚴格多目標還是弱多目標 你說的多個損失加權這種,就是弱多目標,多個目標都有...

神經網路是不是本質上就是乙個力學問題

周強 應該不是乙個力學問題,但或許真的蘊含了某種幾何。深度學習的成功是基於兩個資料分布規律 1.流形分布定律 自然界中同一類別的高維資料,往往集中在某個低維流形附近。2.聚類分布定律 這一類別中不同的子類對應著流形上的不同概率分布,這些分布之間的距離大到足夠將這些子類區分。文章基於這兩個規律,將深度...