<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          什么? 20分鐘,構(gòu)建你自己的LLaMA3應(yīng)用程序!

          共 2120字,需瀏覽 5分鐘

           ·

          2024-05-08 09:38

          4月19日,Meta發(fā)布了最新的大語言模型LLaMA3,具體包括一個(gè)8B模型和一個(gè)70B模型,上下文長度支持8K,被譽(yù)為史上最強(qiáng)開源大語言模型,開源社區(qū)的“重磅炸彈”,效果直指GTP4。在諸多評測任務(wù)上,LLaMA3都有非常炸裂的效果。8B模型在多項(xiàng)指標(biāo)中超越了Gemma7B和Mistral 7B Instruct,而70B模型則超越了閉源的Claude 3 Sonnet,和Gemini Pro 1.5。具體的評測報(bào)告可以參見:https://github.com/meta-llama/llama3/blob/main/eval_details.md

          ?由于Llama 3 選擇了相對標(biāo)準(zhǔn)的純解碼器 Transformer 架構(gòu),根據(jù)各方信息推測,性能提升主要來自數(shù)據(jù)質(zhì)量的提升。一是使用了15T的預(yù)訓(xùn)練數(shù)據(jù),相比Llama 2提高了7倍,并且大幅提高了代碼的使用量,以增強(qiáng)模型的推理能力。二是使用了詞匯量為128K的標(biāo)記器,相比Llama 2使用的 32K 標(biāo)記器,改善了標(biāo)記化的粒度。另外,在8B 和 70B 大小的模型上采用了分組查詢注意力 (GQA),提高了Llama 3的推理效率。
          開源社區(qū)對此反響強(qiáng)烈,短短5天,Hugging Face上已經(jīng)有了1000多個(gè)變種,而且數(shù)字還在持續(xù)增長。
          ??面對AI行業(yè)一波又一波的巨大事件,我們在贊美和焦慮之外,能做點(diǎn)什么呢?雖說不上躬身入局,但總想讓稍微感受一下AI巨浪帶來的點(diǎn)點(diǎn)漣漪。不是有句老話說得好么,不是AI取代人類,而是懂AI的人取代不懂AI的人。
          于是我用百度找到了LLaMA3的體驗(yàn)地址:https://www.meta.ai/。但當(dāng)我在瀏覽器輸入并等待了10分鐘后,我放棄了..... 網(wǎng)絡(luò)問題,無情的阻礙了我進(jìn)步的腳步。我再次打開百度,想試試能不能在本地安裝一個(gè)LLaMA3,但當(dāng)我看到60G的模型大小,以及昂貴的GPU算力,以及各種程序報(bào)錯(cuò)時(shí),我又一次知難而退了。是堅(jiān)持,還是放棄,這是個(gè)問題。。。。。
          ?
          ??
          直到,我在京東云上看到了這個(gè)產(chǎn)品.....
          于是,我打開手機(jī)計(jì)時(shí)器,開始了我尋找AI浪花之旅
          第一步,進(jìn)入京東智算服務(wù)控制臺:https://gcs-console.jdcloud.com/instance/list
          第二步,點(diǎn)擊創(chuàng)建按鈕購買GPU實(shí)例,注意計(jì)費(fèi)方式一定選擇“按配置”,就是按使用時(shí)長進(jìn)行計(jì)費(fèi),一個(gè)小時(shí)才1.89,充值2塊錢,就能玩2個(gè)小時(shí),真是良心。點(diǎn)擊“立即購買”下單。
          第三步,在實(shí)例列表頁面,等待實(shí)例狀態(tài)變?yōu)椤斑\(yùn)行中”,然后點(diǎn)擊Jupyter進(jìn)入AI的開發(fā)環(huán)境。

          ??第四步,在Jupyter頁面中,點(diǎn)擊進(jìn)入Terminal終端,執(zhí)行如下命令:
          cp -r /gcs-pub/llama-factory/ /data/
          ??
          第五步:在左側(cè)的目錄樹中,找到llama-factory/src/web_demo.py文件,雙擊打開,然后把server_port修改為28888,Ctrl+S保存這個(gè)修改。
          ??第六步:再次打開剛才的終端,分別執(zhí)行下面幾行命令:
             
          cd /data/llama-factory conda create -n liandan python=3.10 -yconda activate liandanpip install -e .[metrics]CUDA_VISIBLE_DEVICES=0 python src/web_demo.py --model_name_or_path /gcs-pub/Meta-Llama-3-8B-Instruct --template llama3
          這個(gè)平臺的特點(diǎn)是速度特別快,比其他平臺都快,幾分鐘后,我看到了勝利的曙光...
          第七步:在控制臺實(shí)例列表頁面(https://gcs-console.jdcloud.com/instance/list),點(diǎn)擊該實(shí)例的最后一欄,操作-應(yīng)用-自定義應(yīng)用,于是乎,LLaMA3就顯出了原型。
          ??聽說這個(gè)平臺還能無代碼直接啟動文生圖應(yīng)用,等下次我再試試吧,現(xiàn)在要迫不及待的開始調(diào)戲LLaMA3啦,完美!


          還是不懂怎么操作?想試用嗎?
          掃一掃 技術(shù)專家1V1指導(dǎo)!


          瀏覽 139
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  在线视频免费播放 | 在线A∨| 黑人操逼在线 | 香港操逼视频 | 免费看逼逼 |