為什麼word2vec出來以後,大家還在用distributional hypothesis找近義詞?

時間 2021-05-07 05:21:18

1樓:hain

我用word2vec訓練了乙個近義詞模型,開箱即用,huyingxi/Synonyms,word2vec應該是乙個新的開始,它給了我很多啟發。

2樓:

比如w2v找出來的, english 相似度高的:england、french 這些都是很正常的吧, 這他媽是近義詞嗎。

3樓:夏小麥

word2vec相似度找出來的除了近義詞還有相關詞,並且很難分離出來,比如霧霾的distance列表裡前兩個是沙塵和口罩,沙塵是近義詞,口罩就是相關詞。

4樓:繆唯璟

乙個問題是要找近義詞。

還有乙個問題是為什麼這些詞是近義詞而不是同義詞。

在RNNLM能夠證明自己能夠拳打腳踢各種問題(個人猜測這基本不可能)之前。

傳統方法肯定還能在一些問題上存活很久……

5樓:張大帥

要用動態的發展的系統的眼光看問題,反對形上學。事物是永恆發展和普遍聯絡的。事物的發展往往是螺旋式上公升波浪式前進的。

哲學可不光是用來應付政治考試的。

6樓:

為什麼當年svm、kernel完爆神經網路的時候還有人堅持不懈研究神經網路?為什麼今天神經網路完爆kernel了還有人在研究kernel?

學術界與工業界不同,你不能完全用實驗效果來評價學術成果。學術界要探索,哪怕是探索哪些不是非常有效、但是有道理的東西。如果word2vec是現在最好的,就沒人研究其他方法了,是不是技術發展就走到頭了?

7樓:

word2vec學出來的模型可解釋性太差;基於context統計的distributional representation,每個維度都容易理解,這是一大優勢。

此外,distributional representation的代表模型之一explicit semantic analysis(ESA),在很多任務上效能不比word2vec差,當然計算效率是ESA的主要問題。

word2vec有什麼應用?

Edward word2vec的應用極為廣泛。首先,只要是nlp的相關應用就可以使用word2vec進行詞向量的初始化,通過初始化進一步的fine tuning能夠進一步的提公升模型效果。其次針對表示學習也有很多應用比如類似deepwalk之類的,感覺也都是受word2vec啟發。另外值得說的一點是...

GloVe以及Word2vec能稱為deep learning麼?這倆模型的層次其實很淺的

乙個是歷史原因,word2vec的方法原型,是Bengio在03年提出的神經語言模型,這個網路的確是非常淺的網路,只有1個hidden層,但是建模方法算是神經網路 現代的說法是深度學習 Good Fellow的花書裡面也把word2vec方法歸在了神經語言模型的章節。另外乙個原因,word2vec曾...

word2vec 訓練好的詞彙向量檔案是否可以動態增加?如果可以,如何實現動態訓練增加?

江飛燕 gensim train sentences,total words None,word count 0,total examples None,queue factor 2,report delay 1.0 gensim models.word2vec Deep learning with...