1樓:Nicolas
磚:dnn(這個不用說了)
cnn(業務中用)
lstm gru(序列任務的基礎)
attention(從bahdanau,luong開始)
transformer(gpt bert xlnet的基礎)
karpathy大神的char-rnn,包含了lstm,attention,beam search(https://
karpathy.github.io/2015
/05/21/rnn-effectiveness/
)word-rnn,了解word2vec,embedding,語言模型,oov問題 (https://
adventuresinmachinelearning.com
/keras-lstm-tutorial/
)seq2seq翻譯任務,了解attention機制,copy機制 (https://
序列標註任務,ner,理解實體,crf,三元組
QQP任務,了解句子匹配 (https://www.
)閱讀理解任務,接觸預訓練模型,熟練使用bert等 (https://
rajpurkar.github.io/SQu
AD-explorer/
)結構文字和非結構文字互相轉換,類似nl2sql,三元組抽取,問題生成
三元組抽取:http://
lic2019.ccf.org.cn/kg
多工,知識蒸餾 (https://
),知識圖譜相關
2樓:吳海波
我個人感覺是char-rnn,可以打下很多基礎,包括文字預處理、lstm、attentoin、loss、predict、beam search等等,關鍵是挺好玩的,比如像karpathy裝個莎士比亞啥的:
The Unreasonable Effectiveness of Recurrent Neural Networks
3樓:
其實有些比較經典的模型演算法也值得自己寫寫。之前上課寫過language model,Brown Clustering,HMM POS Tagging之類的,也能學到不少內容
4樓:雨夜天空
傳統機器學習模型實現過HMM,用來糾錯,分詞(練手),因為確實簡單,可以觸類旁通,了解CRF,SVM敲過SMO,線性回歸,邏輯分類,都是非常簡單的,難點的建議看懂原理,然後調sklearn
深度學習模型用tensorfloew實現過TextCNN,Bilstm+CRF, seq2seq,相比較而言深度學習更簡單,tensorflow框架太好,只要自己寫網路結構就行了。。
5樓:邱錫鵬
NLP四大任務型別:分類、序列標註、文字匹配、文字生成,都需要完整實現一遍。
對於實驗室新生,我一般讓他們實現五個練習來上手NLP。可以參考:
有哪些電影讓你看了一遍又一遍?
詩人誕生前 溺水小刀 神明少女是神明鍾愛的信徒 神明始終是她一人的守護神 山茶花的紅終究比不過大海深處的群青.海浪終會席捲一切不安一切罪惡,只留下神明和他虔誠的信徒.在彼此內心依舊閃閃發光. 橙子公子 時空旅戀人 直到遇見乙個人她讓你覺得你過去所有的遺憾和錯過都值得 心靈捕手 原生家庭的傷害可能伴隨...
你們有哪些看了一遍又一遍的電視劇集?
將離 中國產劇 知否知否應是綠肥紅瘦 芸汐傳 琅琊榜 白夜追兇 陳情令 偽裝者 父母愛情 重案六組 還珠格格 趙薇版 英劇 吸血鬼日記 初代吸血鬼 青絲如玉涼 母儀天下,如果按歷史來說這個劇槽點挺多,我只是喜歡劇裡的感情,可能是嚮往那種感情吧!蕭望之對王政君的一生守候,傅瑤因為內心感情的殘缺對守候自...
完整的背過一遍單詞書是什麼感覺?
高二一年沒有背完半本3600。高三最後兩個月背了快三遍。背完一遍毛線用都沒有,原來標記下來的單詞還是不會。做題加第二遍才有些印象,刪去很多掌握的詞彙。第三遍沒完就高考了。感覺單詞基本上不能阻礙我了。高考成績快出來了,祈禱。最後,背單詞書會上癮。 此賬號不會再用了 進步超大!我剛開始是連初中單詞都忘光...