<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          GPT-2基于 transformer?的大型語言模型

          聯(lián)合創(chuàng)作 · 2023-09-25 23:01

          GPT-2 是一種基于 transformer 的大型語言模型,具有 15 億個(gè)參數(shù),在 800 萬網(wǎng)頁數(shù)據(jù)集上進(jìn)行訓(xùn)練。

          它是論文《語言模型是無人監(jiān)督的多任務(wù)學(xué)習(xí)者》(Language Models are Unsupervised Multitask Learners)的代碼實(shí)現(xiàn)。

          目前發(fā)布了 GPT-2 的小型(117M 參數(shù))和中型(345M 參數(shù))版本,還沒有發(fā)布更大的模型,但已經(jīng)發(fā)布了一個(gè)數(shù)據(jù)集供研究人員研究行為。該存儲(chǔ)庫旨在成為研究人員和工程師嘗試使用 GPT-2 的起點(diǎn)。

           

           

          瀏覽 23
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          編輯 分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          編輯 分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  啪啪视频免费网站 | 久久99精品久久久久久国产越南 | 性乱伦视频| 欧美亚洲成人网 | 91蜜桃精品 |