<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          原駝爆火:大模型小型化的神器,開源了!

          共 2679字,需瀏覽 6分鐘

           ·

          2023-05-31 21:25


          大家好,我是DASOU

          自動(dòng)測(cè)試分?jǐn)?shù)達(dá)到ChatGPT的99.3%,人類難以分辨兩者的回答……

          這是開源大模型最新成果,來自羊駝家族的又一重磅成員——華盛頓大學(xué)原駝(Guanaco)。

          a992fdc8802d837430894631d6931049.webp

          更關(guān)鍵的是,與原駝一起提出的新方法QLoRA把微調(diào)大模型的顯存需求從>780GB降低到<48GB。

          開源社區(qū)直接開始狂歡,相關(guān)論文成為24小時(shí)內(nèi)關(guān)注度最高的AI論文。

          1a03952921e7254a155a9715477e8b74.webpimg

          以Meta的美洲駝LLaMA為基礎(chǔ),得到原駝650億參數(shù)版只需要48GB顯存單卡微調(diào)24小時(shí),330億參數(shù)版只需要24GB顯存單卡微調(diào)12小時(shí)。

          24GB顯存,也就是一塊消費(fèi)級(jí)RTX3090或RTX4090顯卡足以。

          不少網(wǎng)友在測(cè)試后也表示,更喜歡它而不是ChatGPT。

          d849e8bc16707a18cea5e685ccda7185.webp

          英偉達(dá)科學(xué)家Jim Fan博士對(duì)此評(píng)價(jià)為:大模型小型化的又一里程碑。

          先擴(kuò)大規(guī)模再縮小,將成為開源AI社區(qū)的節(jié)奏。

          8bdc07190fa466ade9951488f00f1f9c.webp

          而新的高效微調(diào)方法QLoRA迅速被開源社區(qū)接受,HuggingFace也在第一時(shí)間整合上線了相關(guān)代碼。

          5404d37b411b1d6ad28f055a1048d26c.webp

          GPT-4做裁判,原駝得分達(dá)到ChatGPT的99.3%

          論文中,團(tuán)隊(duì)對(duì)原駝總共做了三項(xiàng)測(cè)試,自動(dòng)評(píng)估、隨機(jī)匹配和人類評(píng)估。

          測(cè)試數(shù)據(jù)來自小羊駝Vicuna和Open Assistant。

          自動(dòng)評(píng)估由大模型天花板GPT-4當(dāng)裁判,對(duì)不同模型的回答進(jìn)行打分,以ChatGPT(GPT3.5)的成績作為100%。

          最終原駝650億版得分達(dá)到ChatGPT的99.3%,而GPT-4自己的得分是114.5%,谷歌Bard是94.8%。

          53a4eff192df61176717f227e468ecb9.webp

          隨機(jī)匹配,采用棋類專業(yè)比賽和電子競技同款的Elo記分機(jī)制,由GPT-4和人類共同做裁判。

          原駝650億和330億版最終得分超過ChatGPT(GPT3.5)。

          7da9e5b62d87e82ce8725c9c397c56da.webp

          人類評(píng)估,則是把原駝650億版的回答和ChatGPT的回答匿名亂序放在一起,人類來盲選哪個(gè)最好。

          論文共同一作表示,研究團(tuán)隊(duì)里的人都很難分辨出來,并把測(cè)試做成了一個(gè)小游戲放在Colab上,開放給大家挑戰(zhàn)。

          16fab2874327fffc72fd1a7ec6f56779.webp

          這里節(jié)選其中一個(gè)問題(附中文翻譯),你能分辨出哪個(gè)是ChatGPT回答的嗎?

          問題:How can I improve my time management skills?(如何提高時(shí)間管理技能?)

          00583e9aeb3b7f3a4980a180836bfc76.webpfc22897378aefa9d8ccfb0e53390f5d5.webp

          (完整測(cè)試地址在文末)

          總的來說,原駝的優(yōu)勢(shì)在于不容易被問題中的錯(cuò)誤信息誤導(dǎo),比如能指出地球從來沒有被科學(xué)界認(rèn)為是平的。

          6a197bdc19a3189c1285f11f10260a0e.webp

          以及擅長心智理論(Theory of Mind),也就是能推測(cè)理解他人的心理狀態(tài)。

          0586a0bff7d0152eda680592b83a2363.webp

          但原駝也并非沒有弱點(diǎn),團(tuán)隊(duì)發(fā)發(fā)現(xiàn)它不太擅長數(shù)學(xué),以及容易用提示注入攻擊把要求保密的信息從它嘴里套出來。

          f94c206688561c3b5e1eddd6498f1939.webp

          也有網(wǎng)友表示,雖然一個(gè)模型能在某個(gè)數(shù)據(jù)集上無限接近ChatGPT,但像ChatGPT那樣通用還是很難的。

          b5d5b5f15dcfd899d219a76556ab878d.webp

          全新方法QLoRA,iPhone都能微調(diào)大模型了

          原駝?wù)撐牡暮诵呢暙I(xiàn)是提出新的微調(diào)方法QLoRA。

          其中Q代表量化(Quantization),用低精度數(shù)據(jù)類型去逼近神經(jīng)網(wǎng)絡(luò)中的高精度浮點(diǎn)數(shù),以提高運(yùn)算效率。

          LoRA是微軟團(tuán)隊(duì)在2021年提出的低秩適應(yīng)(Low-Rank Adaptation)高效微調(diào)方法,LoRA后來被移植到AI繪畫領(lǐng)域更被大眾熟知,但最早其實(shí)就是用于大語言模型的。

          通常來說,LoRA微調(diào)與全量微調(diào)相比效果會(huì)更差,但團(tuán)隊(duì)將LoRA添加到所有的線性層解決了這個(gè)問題。

          76974d01d08ed61f4bf1962d35c45267.webpimg

          具體來說,QLoRA結(jié)合了4-bit量化和LoRA,以及團(tuán)隊(duì)新創(chuàng)的三個(gè)技巧:新數(shù)據(jù)類型4-bit NormalFloat分頁優(yōu)化器(Paged Optimizers)和雙重量化(Double Quantization)。

          最終QLoRA讓4-bit的原駝在所有場景和規(guī)模的測(cè)試中匹配16-bit的性能。

          a79454e5ba401288e82a38b6fa6effb4.webpimg

          QLoRA的高效率,讓團(tuán)隊(duì)在華盛頓大學(xué)的小型GPU集群上每天可以微調(diào)LLaMA 100多次……

          最終使用Open Assistant數(shù)據(jù)集微調(diào)的版本性能勝出,成為原駝大模型。

          Open Assistant數(shù)據(jù)集來自非盈利研究組織LAION(訓(xùn)練Stable Diffusion的數(shù)據(jù)集也來自這里),雖然只有9000個(gè)樣本但質(zhì)量很高,經(jīng)過開源社區(qū)的人工仔細(xì)驗(yàn)證。

          這9000條樣本用于微調(diào)大模型,比100萬條指令微調(diào)(Instruction Finetune)樣本的谷歌FLAN v2效果還好。

          研究團(tuán)隊(duì)也據(jù)此提出兩個(gè)關(guān)鍵結(jié)論:

          • 數(shù)據(jù)質(zhì)量 >> 數(shù)據(jù)數(shù)量
          • 指令微調(diào)有利于推理,但不利于聊天

          最后,QLoRA的高效率,還意味著可以用在手機(jī)上,論文共同一作Tim Dettmers估計(jì)以iPhone 12 Plus的算力每個(gè)晚上能微調(diào)300萬個(gè)單詞的數(shù)據(jù)量。

          這意味著,很快手機(jī)上的每個(gè)App都能用上專用大模型。

          5dba658266e184835f36743fe07e77b8.webpimg

          論文:https://arxiv.org/abs/2305.14314

          GitHub:https://github.com/artidoro/qlora

          與ChatGPT對(duì)比測(cè)試:https://colab.research.google.com/drive/1kK6xasHiav9nhiRUJjPMZb4fAED4qRHb

          330億參數(shù)版在線試玩:https://huggingface.co/spaces/uwnlp/guanaco-playground-tgi

          參考鏈接:[1]https://twitter.com/Tim_Dettmers/status/1661379376225697794 [2]https://huggingface.co/blog/4bit-transformers-bitsandbytes

          瀏覽 114
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  最会潮吹的小护士露比来了上篇顶级色影 | 手机看片操逼 | 天天干人人干 | 麻豆视频一区999 | 99精品在线免费观看视频 |