nlp有哪些值得完整實現一遍的演算法

時間 2021-05-05 22:21:02

1樓:Nicolas

磚:dnn(這個不用說了)

cnn(業務中用)

lstm gru(序列任務的基礎)

attention(從bahdanau,luong開始)

transformer(gpt bert xlnet的基礎)

karpathy大神的char-rnn,包含了lstm,attention,beam search(https://

karpathy.github.io/2015

/05/21/rnn-effectiveness/

)word-rnn,了解word2vec,embedding,語言模型,oov問題 (https://

adventuresinmachinelearning.com

/keras-lstm-tutorial/

)seq2seq翻譯任務,了解attention機制,copy機制 (https://

序列標註任務,ner,理解實體,crf,三元組

QQP任務,了解句子匹配 (https://www.

)閱讀理解任務,接觸預訓練模型,熟練使用bert等 (https://

rajpurkar.github.io/SQu

AD-explorer/

)結構文字和非結構文字互相轉換,類似nl2sql,三元組抽取,問題生成

三元組抽取:http://

lic2019.ccf.org.cn/kg

多工,知識蒸餾 (https://

),知識圖譜相關

2樓:吳海波

我個人感覺是char-rnn,可以打下很多基礎,包括文字預處理、lstm、attentoin、loss、predict、beam search等等,關鍵是挺好玩的,比如像karpathy裝個莎士比亞啥的:

The Unreasonable Effectiveness of Recurrent Neural Networks

3樓:

其實有些比較經典的模型演算法也值得自己寫寫。之前上課寫過language model,Brown Clustering,HMM POS Tagging之類的,也能學到不少內容

4樓:雨夜天空

傳統機器學習模型實現過HMM,用來糾錯,分詞(練手),因為確實簡單,可以觸類旁通,了解CRF,SVM敲過SMO,線性回歸,邏輯分類,都是非常簡單的,難點的建議看懂原理,然後調sklearn

深度學習模型用tensorfloew實現過TextCNN,Bilstm+CRF, seq2seq,相比較而言深度學習更簡單,tensorflow框架太好,只要自己寫網路結構就行了。。

5樓:邱錫鵬

NLP四大任務型別:分類、序列標註、文字匹配、文字生成,都需要完整實現一遍。

對於實驗室新生,我一般讓他們實現五個練習來上手NLP。可以參考:

有哪些電影讓你看了一遍又一遍?

詩人誕生前 溺水小刀 神明少女是神明鍾愛的信徒 神明始終是她一人的守護神 山茶花的紅終究比不過大海深處的群青.海浪終會席捲一切不安一切罪惡,只留下神明和他虔誠的信徒.在彼此內心依舊閃閃發光. 橙子公子 時空旅戀人 直到遇見乙個人她讓你覺得你過去所有的遺憾和錯過都值得 心靈捕手 原生家庭的傷害可能伴隨...

你們有哪些看了一遍又一遍的電視劇集?

將離 中國產劇 知否知否應是綠肥紅瘦 芸汐傳 琅琊榜 白夜追兇 陳情令 偽裝者 父母愛情 重案六組 還珠格格 趙薇版 英劇 吸血鬼日記 初代吸血鬼 青絲如玉涼 母儀天下,如果按歷史來說這個劇槽點挺多,我只是喜歡劇裡的感情,可能是嚮往那種感情吧!蕭望之對王政君的一生守候,傅瑤因為內心感情的殘缺對守候自...

完整的背過一遍單詞書是什麼感覺?

高二一年沒有背完半本3600。高三最後兩個月背了快三遍。背完一遍毛線用都沒有,原來標記下來的單詞還是不會。做題加第二遍才有些印象,刪去很多掌握的詞彙。第三遍沒完就高考了。感覺單詞基本上不能阻礙我了。高考成績快出來了,祈禱。最後,背單詞書會上癮。 此賬號不會再用了 進步超大!我剛開始是連初中單詞都忘光...