<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          如何對大模型有效地微調增強?

          共 1954字,需瀏覽 4分鐘

           ·

          2024-04-10 18:49

          最近直播超級多, 預約 保你有收獲

          今晚直播: 基于LoRA微調大模型應用實戰(zhàn)

           1

          如何對 LLM 大模型增強? 

          對 LLM 大模型能力增強在企業(yè)級有兩種實踐路線:RAG 和 Fine-tuning。接下來我們詳細剖析下這兩種增強實現(xiàn)方式。 第一:檢索增強生成 RAG(Retrieval Augmented Generation)實現(xiàn)方式 2020 年,Lewis et al. 的論文《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》提出了一種更為靈活的技術:檢索增強生成(RAG)。在這篇論文中,研究者將生成模型與一個檢索模塊組合到了一起;這個檢索模塊可以用一個更容易更新的外部知識源提供附加信息。 用大白話來講:RAG 之于 LLM 就像開卷考試之于人類。在開卷考試時,學生可以攜帶教材和筆記等參考資料,他們可以從中查找用于答題的相關信息。開卷考試背后的思想是:這堂考試考核的重點是學生的推理能力,而不是記憶特定信息的能力。 類似地,事實知識與 LLM 大模型的推理能力是分開的,并且可以保存在可輕松訪問和更新的外部知識源中:
          • 參數化知識:在訓練期間學習到的知識,以隱含的方式儲存在神經網絡權重之中。
          • 非參數化知識:儲存于外部知識源,比如向量數據庫。
          60aaa92cc469b33dd2961a3c8fed92db.webp 上圖檢索增強生成(RAG)的工作流程如下所示: 1、檢索(Retrieval):將用戶查詢用于檢索外部知識源中的相關上下文。為此,要使用一個嵌入模型將該用戶查詢嵌入到同一個向量空間中,使其作為該向量數據庫中的附加上下文。這樣一來,就可以執(zhí)行相似性搜索,并返回該向量數據庫中與用戶查詢最接近的 k 個數據對象。 2、增強(Augmented):然后將用戶查詢和檢索到的附加上下文填充到一個 prompt 模板中。 3、生成(Generation):最后,將經過檢索增強的 prompt 饋送給 LLM。 第二:微調(Fine-tuning) 實現(xiàn)方式 通過微調模型,可以讓神經網絡適應特定領域的或專有的信息 f03a51219a21bb751485ad9065276311.webp 微調技術按照參數量不同,分為全參數微調和局部參數微調,由于全參數微調周期比較長,微調成本和一次預訓練成本差別不大,因此全參數微調在實際企業(yè)級生產環(huán)境中基本不使用,更有效的微調方式是少參數量微調,比如:基于 LoRA、P rompt tuning、P refix tuning、 Adapter、 LLaMA-adapter、 P-Tuning V2 等微調技術。 基于 LoRA 可以高效進行微調,通過把微調參數量減少為萬分之一,達成同樣的微調效果。 47aa3b137188386a3e8f740b4f1d3a18.webp 微調技術是有效的,但其需要密集的計算,成本高,還需要技術專家的支持,因此需要對微調技術有一定的認知和掌握,才能做好微調。

          2

          免費超干貨大模型微調技術實戰(zhàn) 直播

          為了幫助同學們掌握好 LLM 大模型微調技術架構和應用案例實戰(zhàn),今晚20點,我會開一場直播和同學們 深度聊聊 LLM 大模型高效微調 技術架構、高效微調案例實戰(zhàn)、  基于 Transformen 架構的高效微調核心技術 請同學點擊下方按鈕預約直播 ,咱們今晚20點不見不散哦~~

          近期直播: 大模型Transformer架構剖析以及微調應用實踐

           3

          關于《LLM 大模型技術知識圖譜和學習路線

          最近很多同學在后臺留言:“玄姐,大模型技術的知識圖譜有沒?”、“大模型技術有學習路線嗎?” 我們傾心整理了大模型技術的知識圖譜《最全大模型技術知識圖譜》和學習路線《最佳大模型技術學習路線》快去領取吧!
          LLM 大模型技術體系的確是相對比較復雜的,如何構建一條清晰的學習路徑對每一個 IT 同學都是非常重要的,我們梳理了下 LLM 大模型的知識圖譜,主要包括12項核心技能: 大模型內核架構、大模型開發(fā)API、開發(fā)框架、向量數據庫、AI 編程、AI Agent、緩存、算力、RAG、大模型微調、大模型預訓練、LLMOps  等12項核心技能。 b1e0a73ab8ec39621b827f846e907d75.webp 為了幫助每一個程序員掌握以上12項核心技能,我們準備了一系列免費直播干貨掃碼一鍵免費全部預約領取

          END


          瀏覽 24
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  亚州逼逼| 内射学生妹视频在线免费观看 | 色婷久久 | 性爱福利网站 | 九九成人手机 |