<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          【NLP】Github標(biāo)星7.7k+:常見(jiàn)NLP模型的PyTorch代碼實(shí)現(xiàn)

          共 2192字,需瀏覽 5分鐘

           ·

          2020-11-21 05:18

          推薦github上的一個(gè)NLP代碼教程:nlp-tutorial,教程中包含常見(jiàn)的NLP模型代碼實(shí)現(xiàn)(基于Pytorch1.0+),而且教程中的大多數(shù)NLP模型都使用少于100行代碼。


          教程說(shuō)明

          這是使用Pytorch學(xué)習(xí)NLP(自然語(yǔ)言處理)的教程,把常用NLP模型用不到100行的代碼實(shí)現(xiàn)了,教程里附論文下載,并且包含py和ipynb文件,經(jīng)過(guò)測(cè)試全部通過(guò)。

          倉(cāng)庫(kù)地址:

          https://github.com/graykode/nlp-tutorial

          里面有使用說(shuō)明和樣例(py和ipynb格式)。

          注意:論文下載請(qǐng)“閱讀原文”

          教程目錄

          1. Basic Embedding Model(基礎(chǔ)嵌入模型)

          1-1. NNLM(Neural Network Language Model)- Predict Next Word

          • 論文下載

          A Neural Probabilistic LanguageModel(2003)

          • 代碼實(shí)現(xiàn)


          1-2. Word2Vec(Skip-gram) - EmbeddingWords and Show Graph

          • ?論文下載

          Distributed Representations of Wordsand Phrases and their Compositionality(2013)

          • 代碼實(shí)現(xiàn)


          1-3. FastText(Application Level)- Sentence Classification

          • 論文下載

          Bag of Tricks for Efficient Text Classification(2016)

          • ?代碼實(shí)現(xiàn)

          2. CNN(卷積神經(jīng)網(wǎng)絡(luò))

          2-1. TextCNN - BinarySentiment Classification

          • 論文下載

          Convolutional Neural Networks for SentenceClassification(2014)

          • 代碼實(shí)現(xiàn)


          2-2. DCNN(Dynamic Convolutional Neural Network)

          3. RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))

          3-1. TextRNN - Predict NextStep

          • 論文下載

          Finding Structure in Time(1990)

          • 代碼實(shí)現(xiàn)


          3-2. TextLSTM - Autocomplete

          • 論文下載

          LONG SHORT-TERM MEMORY(1997)

          • 代碼實(shí)現(xiàn)


          3-3. Bi-LSTM - Predict NextWord in Long Sentence

          • 代碼實(shí)現(xiàn)

          4. Attention Mechanism(注意力機(jī)制)

          4-1. Seq2Seq - Change Word

          • ?論文下載

          Learning Phrase Representations using RNN Encoder–Decoder for Statistical MachineTranslation(2014)

          • 代碼實(shí)現(xiàn)

          4-2. Seq2Seq with Attention - Translate

          • 論文下載

          NeuralMachine Translation by Jointly Learning to Align and Translate(2014)

          • 代碼實(shí)現(xiàn)

          4-3. Bi-LSTM with Attention - BinarySentiment Classification

          • 代碼實(shí)現(xiàn)5. Model based on Transformer(Transformer模型)

          5-1. The Transformer - Translate

          • 論文下載

          Attention Is All You Need(2017)

          • 代碼實(shí)現(xiàn)


          5-2. BERT - ClassificationNext Sentence & Predict Masked Tokens

          • 論文下載

          BERT: Pre-training of Deep Bidirectional Transformers for LanguageUnderstanding(2018)

          • 代碼實(shí)現(xiàn)


          部分內(nèi)容截圖




          TextCNN的兩種實(shí)現(xiàn)方式(使用TensorFlow和Pytorch)



          總結(jié)

          推薦github上的一個(gè)NLP代碼教程:nlp-tutorial,一個(gè)使用Pytorch實(shí)現(xiàn)NLP(自然語(yǔ)言處理)的教程,教程中的大多數(shù)NLP模型都使用少于100行代碼實(shí)現(xiàn)。

          倉(cāng)庫(kù)地址:

          https://github.com/graykode/nlp-tutorial

          里面有使用說(shuō)明和樣例(py和ipynb格式)。

          倉(cāng)庫(kù)作者:Tae Hwan Jung(Jeff Jung)

          注意:論文下載請(qǐng)“閱讀原文”。

          往期精彩回顧





          獲取本站知識(shí)星球優(yōu)惠券,復(fù)制鏈接直接打開(kāi):

          https://t.zsxq.com/y7uvZF6

          本站qq群704220115。

          加入微信群請(qǐng)掃碼:

          瀏覽 93
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  一道本一区二区 | 伊人天堂在线 | 男人天堂久草 | 亚洲免费特级毛片 | 天天色天天干天天日 |