如何理解 機器學習的全息重整化 ?

時間 2021-05-06 19:32:41

1樓:

怎麼說呢?這篇文章看起更像是甘文聰的文章(https://arxiv.org/pdf/1705.05750.pdf

)和我的文章(https://

arxiv.org/pdf/1709.01223.pdf

)的一種奇怪的組合。這篇文章的公式(1-16)基本上是甘文聰的公式(1-8),這個部分採用了逐層RBM的方式對partition function做重整化。但是此文突然畫風一變,說「If we treat the neural network as a tensor network」,然後開始公式(19-21),基本上就是我文章的(24-26)。

當然,如果他想寫review文章那也可以,但是他也不好好介紹前人的工作,整個思路都比較混亂,而且對甘和我的文章都不引用,也是非常驚人。話說回來,如果他想要在我們的基礎上繼續深入,那至少有些新的演算法,然後要付諸實施,做些計算啊,結果也沒有看到。所以我只能說這是一篇奇怪的文章。

重整化中的不動點該如何理解?與相變中的臨界點是一回事嗎?臨界點處的尺度不變性與重整化有關嗎?

可以和莫爾斯理論或動力系統來來模擬。不動點就是臨界點。臨界點處的物理是用共形場論描述的。重整化定義了理論空間上的乙個動力系統,每乙個不動點都有一定的吸引域。如果乙個不動點是孤立的,並且它的吸引域是乙個開集,那麼它就代表乙個普適類,可以稱為普適不動點,它的序參量就是普適的。如果乙個不動點不是孤立的,它...

如何理解機器學習中的 regularization (正則化)?

zhao 先占個坑寫個快捷簡短的。intuitional角度 L2norm懲罰太大的weight W,讓很多W處於很弱的狀態,這相當於降低了模型複雜度。統計角度,不少前面的答案提到了Gaussian先驗分布,是這麼個事兒。統計目的是找到合適的W,使得posterior概率最大化,用人話說就是 給定資...

如何理解機器學習中的嵌入 Embeddings ?

RandomWalk 應該是翻譯成嵌入比較多吧。機器學習裡面嵌入這個概念應該是來自於NLP領域的word embedding,意思就是給每乙個符號 字或者詞 在乙個向量空間裡面找乙個 代表 貌似現在embedding這個詞已經開始亂用了,有人把影象或者語音提取的特徵也叫embedding。這種應該叫...