<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          基于Transformers入門自然語言處理!

          共 1533字,需瀏覽 4分鐘

           ·

          2021-09-23 00:50


          前言

          讀者朋友們好,我是多多,許久未見,甚是想念。

          我最近忙了1件自己感覺有意義的事情,特來分享。我將之前零零散散的Transformer博客、講解文章進行了整理,形成了一個完整的教程叫做:learn nlp with transformers,翻譯過來是:基于Transformers入門自然語言處理。在這個Transformer橫行的時間點,我也希望這個開源教程能夠幫助到剛剛接觸Transformers、剛剛接觸NLP的同學(xué)們!

          教程網(wǎng)站是:https://datawhalechina.github.io/learn-nlp-with-transformers

          教程Github是:https://github.com/datawhalechina/learn-nlp-with-transformers (截止目前165 Stars 歡迎點Star支持

          先特別感謝以下個人,組織的大力支持,再對Transformer教程進行介紹。感謝:張帆,張賢,李濼秋,蔡杰,hlzhang,臺運鵬, 張紅旭,文睿,開源組織Datawhale,Datawhale熱心的組隊學(xué)習(xí)成員們以及內(nèi)測的全部同學(xué)們!

          寫教程的出發(fā)點

          寫這個教程的初衷是:當(dāng)初自己入門NLP的時候,受到了很多大佬博客的幫助,所以也希望自己在力所能及的范圍內(nèi)幫助一下未來的NLP、Transformer初學(xué)者。所以我在參考了網(wǎng)上諸多大佬的文章、代碼講解后,結(jié)合一些個人的理解,整理了這個教程。希望這個教程能幫助到以下特點的學(xué)習(xí)者:

          • NLP初學(xué)者、transformer初學(xué)者
          • 有一定的python、pytorch編程基礎(chǔ)
          • 對前沿的transformer、NLP模型感興趣
          • 了解和知道簡單的深度學(xué)習(xí)模型

          教程主要內(nèi)容

          教程從Attention、注意力機制出發(fā),講解Transformer模型結(jié)構(gòu),然后詳解BERT、GPT原理和預(yù)訓(xùn)練方法,再深入實現(xiàn)一個BERT,最后基于流行的Huggingface/Transformers代碼庫調(diào)用各種Transformer模型來解決4大類經(jīng)典NLP任務(wù)。

          教程的主要章節(jié)和內(nèi)容是:


          • 篇章1-前言
            • 1.0-本地閱讀和代碼運行環(huán)境配置
            • 1.1-Transformers在NLP中的興起
          • 篇章2-Transformer相關(guān)原理
            • 2.1-圖解attention
            • 2.2-圖解transformer
            • 2.2.1-Pytorch編寫Transformer
            • 2.2.2-Pytorch編寫Transformer-選讀
            • 2.3-圖解BERT
            • 2.4-圖解GPT
            • 2.5-篇章小測
          • 篇章3-編寫一個Transformer模型:BERT
            • 3.1-如何實現(xiàn)一個BERT
            • 3.2-如何應(yīng)用一個BERT
            • 3.3-篇章小測
          • 篇章4-使用Transformers解決NLP任務(wù)
            • 4.0-前言
            • 4.1-文本分類
            • 4.2-序列標(biāo)注
            • 4.3-問答任務(wù)-抽取式問答
            • 4.4-問答任務(wù)-多選問答
            • 4.5-生成任務(wù)-語言模型
            • 4.6-生成任務(wù)-機器翻譯
            • 4.7-生成任務(wù)-摘要生成
            • 4.8-篇章小測

          感興趣的讀者朋友們可以在github中查看更多細節(jié),也歡迎點Star支持哦!

          結(jié)語

          由于本人水平有限,所撰寫的內(nèi)容難免出現(xiàn)錯誤,希望讀者朋友們在發(fā)現(xiàn)錯誤或者歧義的表述時能夠不吝指出,也可以提交pull request幫忙修正和改進,感謝!

          覺得不錯幫點贊、轉(zhuǎn)發(fā)、在看支持吧~~謝謝。

          歡迎關(guān)注公眾號后回復(fù)“交流”,進入Transformer學(xué)習(xí)群。


          瀏覽 74
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  在线免费高清无码 | 超碰碰人人 | 国产在线成人 | 日日夜干 | 无码毛片一区二区三区四区五区六区 |