<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          LLMs九層妖塔

          共 36299字,需瀏覽 73分鐘

           ·

          2024-07-19 07:00

          【LLMs九層妖塔】分享 LLMs在自然語言處理(ChatGLM、Chinese-LLaMA-Alpaca、小羊駝 Vicuna、LLaMA、GPT4ALL等)、信息檢索(langchain)、語言合成、語言識別、多模態(tài)等領(lǐng)域(Stable Diffusion、MiniGPT-4、VisualGLM-6B、Ziya-Visual等)等 實(shí)戰(zhàn)與經(jīng)驗(yàn)。


          Github 地址:https://github.com/km1994/LLMsNineStoryDemonTower

          !! LLMs九層妖塔 交流群 (注:人滿 可 添加 小編wx:yzyykm666 加群!)

          第一層 LLMs to Natural Language Processing (NLP)

          第一重 ChatGLM-6B 系列

          ChatGLM-6B
          1. 【ChatGLM-6B入門-一】清華大學(xué)開源中文版ChatGLM-6B模型學(xué)習(xí)與實(shí)戰(zhàn)

            1. 介紹:ChatGLM-6B 環(huán)境配置 和 部署

          2. 【ChatGLM-6B入門-二】清華大學(xué)開源中文版ChatGLM-6B模型微調(diào)實(shí)戰(zhàn)

            1. ChatGLM-6B P-Tuning V2 微調(diào):Fine-tuning the prefix encoder of the model.

          3. 【ChatGLM-6B入門-三】ChatGLM 特定任務(wù)微調(diào)實(shí)戰(zhàn)

          4. 【ChatGLM-6B入門-四】ChatGLM + LoRA 進(jìn)行finetune

            1. 介紹:ChatGLM-6B LoRA 微調(diào):Fine-tuning the low-rank adapters of the model.

          5. ChatGLM-6B 小編填坑記

            1. 介紹:ChatGLM-6B 在 部署和微調(diào) 過程中 會遇到很多坑,小編掉坑了很多次,為防止 后人和小編一樣繼續(xù)掉坑,小編索性把遇到的坑都填了。

          6. 【LLMs學(xué)習(xí)】關(guān)于大模型實(shí)踐的一些總結(jié)

          7. 【LLMs 入門實(shí)戰(zhàn) —— 十一 】基于 ??PEFT 的高效 ??ChatGLM-6B 微調(diào)

            1. ChatGLM-6B Freeze 微調(diào):Fine-tuning the MLPs in the last n blocks of the model.

            2. ChatGLM-6B P-Tuning V2 微調(diào):Fine-tuning the prefix encoder of the model.

            3. ChatGLM-6B LoRA 微調(diào):Fine-tuning the low-rank adapters of the model.

            4. 微調(diào)方式:

          8. 【LLMs 入門實(shí)戰(zhàn)】基于 ??QLoRA 的高效 ??ChatGLM-6B 微調(diào)

            1. 介紹:本項(xiàng)目使用 https://github.com/huggingface/peft 庫,實(shí)現(xiàn)了 ChatGLM-6B 模型4bit的 QLoRA 高效微調(diào),可以在一張RTX3060上完成全部微調(diào)過程。

          9. 【LLMs 入門實(shí)戰(zhàn) 】??ChatGLM-6B 模型結(jié)構(gòu)代碼解析

            1. 介紹:ChatGLM-6B 模型結(jié)構(gòu)代碼解析


          ChatGLM2-6B
          • 【ChatGLM2-6B入門】清華大學(xué)開源中文版ChatGLM-6B模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 更強(qiáng)大的性能:基于 ChatGLM 初代模型的開發(fā)經(jīng)驗(yàn),我們?nèi)嫔壛?ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混合目標(biāo)函數(shù),經(jīng)過了 1.4T 中英標(biāo)識符的預(yù)訓(xùn)練與人類偏好對齊訓(xùn)練,評測結(jié)果顯示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等數(shù)據(jù)集上的性能取得了大幅度的提升,在同尺寸開源模型中具有較強(qiáng)的競爭力。

            • 更長的上下文:基于 FlashAttention 技術(shù),我們將基座模型的上下文長度(Context Length)由 ChatGLM-6B 的 2K 擴(kuò)展到了 32K,并在對話階段使用 8K 的上下文長度訓(xùn)練,允許更多輪次的對話。但當(dāng)前版本的 ChatGLM2-6B 對單輪超長文檔的理解能力有限,我們會在后續(xù)迭代升級中著重進(jìn)行優(yōu)化。

            • 更高效的推理:基于 Multi-Query Attention 技術(shù),ChatGLM2-6B 有更高效的推理速度和更低的顯存占用:在官方的模型實(shí)現(xiàn)下,推理速度相比初代提升了 42%,INT4 量化下,6G 顯存支持的對話長度由 1K 提升到了 8K。

            • 更開放的協(xié)議:ChatGLM2-6B 權(quán)重對學(xué)術(shù)研究完全開放,在獲得官方的書面許可后,亦允許商業(yè)使用。如果您發(fā)現(xiàn)我們的開源模型對您的業(yè)務(wù)有用,我們歡迎您對下一代模型 ChatGLM3 研發(fā)的捐贈。

            • 論文名稱:ChatGLM2-6B: An Open Bilingual Chat LLM | 開源雙語對話語言模型

            • 論文地址:

            • Github 代碼:https://github.com/THUDM/ChatGLM2-6B

            • 動機(jī):在主要評估LLM模型中文能力的 C-Eval 榜單中,截至6月25日 ChatGLM2 模型以 71.1 的分?jǐn)?shù)位居 Rank 0 ,ChatGLM2-6B 模型以 51.7 的分?jǐn)?shù)位居 Rank 6,是榜單上排名最高的開源模型。

            • 介紹:ChatGLM2-6B 是開源中英雙語對話模型 ChatGLM-6B 的第二代版本,在保留了初代模型對話流暢、部署門檻較低等眾多優(yōu)秀特性的基礎(chǔ)之上,ChatGLM2-6B 引入了如下新特性:

          • 【關(guān)于 ChatGLM2 + LoRA 進(jìn)行finetune 】那些你不知道的事

            • 論文名稱:ChatGLM2-6B: An Open Bilingual Chat LLM | 開源雙語對話語言模型

            • 論文地址:

            • Github 代碼:https://github.com/THUDM/ChatGLM2-6B

            • 介紹:本教程主要介紹對于 ChatGLM2-6B 模型基于 LoRA 進(jìn)行finetune。

          • 【LLMs 入門實(shí)戰(zhàn) 】基于 ??PEFT 的高效 ??ChatGLM2-6B 微調(diào)

            • ChatGLM2-6B Freeze 微調(diào):Fine-tuning the MLPs in the last n blocks of the model.

            • ChatGLM2-6B P-Tuning V2 微調(diào):Fine-tuning the prefix encoder of the model.

            • ChatGLM2-6B LoRA 微調(diào):Fine-tuning the low-rank adapters of the model.

            • 微調(diào)方式:

          • 【LLMs 入門實(shí)戰(zhàn)】基于 ??QLoRA 的高效 ??ChatGLM2-6B 微調(diào)

            • 介紹:本項(xiàng)目使用 https://github.com/huggingface/peft 庫,實(shí)現(xiàn)了 ChatGLM2-6B 模型4bit的 QLoRA 高效微調(diào),可以在一張RTX3060上完成全部微調(diào)過程。


          第十一重 Llama2

          • 【LLMs 入門實(shí)戰(zhàn)】 Llama2 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 官網(wǎng):https://ai.meta.com/llama/

            • 論文名稱:《Llama 2: Open Foundation and Fine-Tuned Chat Models》

            • 論文地址:https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/

            • 演示平臺:https://llama2.ai/

            • Github 代碼:https://github.com/facebookresearch/llama

            • 模型下載地址:https://ai.meta.com/resources/models-and-libraries/llama-downloads/

            • 介紹:此次 Meta 發(fā)布的 Llama 2 模型系列包含 70 億、130 億和 700 億三種參數(shù)變體。此外還訓(xùn)練了 340 億參數(shù)變體,但并沒有發(fā)布,只在技術(shù)報告中提到了。據(jù)介紹,相比于 Llama 1,Llama 2 的訓(xùn)練數(shù)據(jù)多了 40%,上下文長度也翻倍,并采用了分組查詢注意力機(jī)制。具體來說,Llama 2 預(yù)訓(xùn)練模型是在 2 萬億的 token 上訓(xùn)練的,精調(diào) Chat 模型是在 100 萬人類標(biāo)記數(shù)據(jù)上訓(xùn)練的。

          • 【LLMs 入門實(shí)戰(zhàn)】Chinese-Llama-2-7b 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • https://huggingface.co/ziqingyang/chinese-llama-2-7b

            • https://huggingface.co/LinkSoul/Chinese-Llama-2-7b-4bit

            • 官網(wǎng):https://ai.meta.com/llama/

            • 論文名稱:《Llama 2: Open Foundation and Fine-Tuned Chat Models》

            • 論文地址:https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/

            • 演示平臺:https://huggingface.co/spaces/LinkSoul/Chinese-Llama-2-7b

            • Github 代碼:https://github.com/LinkSoul-AI/Chinese-Llama-2-7b

            • 模型下載地址:

            • 介紹:自打 LLama-2 發(fā)布后就一直在等大佬們發(fā)布 LLama-2 的適配中文版,也是這幾天蹲到了一版由 LinkSoul 發(fā)布的 Chinese-Llama-2-7b,其共發(fā)布了一個常規(guī)版本和一個 4-bit 的量化版本,今天我們主要體驗(yàn)下 Llama-2 的中文邏輯順便看下其訓(xùn)練樣本的樣式,后續(xù)有機(jī)會把訓(xùn)練和微調(diào)跑起來。

          第十重 Baichuan

          Baichuan-13B
          • 【LLMs 入門實(shí)戰(zhàn) 】 Baichuan-13B 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 更大尺寸、更多數(shù)據(jù):Baichuan-13B 在 Baichuan-7B 的基礎(chǔ)上進(jìn)一步擴(kuò)大參數(shù)量到 130 億,并且在高質(zhì)量的語料上訓(xùn)練了 1.4 萬億 tokens,超過 LLaMA-13B 40%,是當(dāng)前開源 13B 尺寸下訓(xùn)練數(shù)據(jù)量最多的模型。支持中英雙語,使用 ALiBi 位置編碼,上下文窗口長度為 4096。

            • 同時開源預(yù)訓(xùn)練和對齊模型:預(yù)訓(xùn)練模型是適用開發(fā)者的“基座”,而廣大普通用戶對有對話功能的對齊模型具有更強(qiáng)的需求。因此本次開源同時發(fā)布了對齊模型(Baichuan-13B-Chat),具有很強(qiáng)的對話能力,開箱即用,幾行代碼即可簡單的部署。

            • 更高效的推理:為了支持更廣大用戶的使用,本次同時開源了 int8 和 int4 的量化版本,相對非量化版本在幾乎沒有效果損失的情況下大大降低了部署的機(jī)器資源門檻,可以部署在如 Nvidia 3090 這樣的消費(fèi)級顯卡上。

            • 開源免費(fèi)可商用:Baichuan-13B 不僅對學(xué)術(shù)研究完全開放,開發(fā)者也僅需郵件申請并獲得官方商用許可后,即可以免費(fèi)商用。

            • 官方微調(diào)過(指令對齊):https://huggingface.co/baichuan-inc/Baichuan-13B-Chat

            • 預(yù)訓(xùn)練大模型(未經(jīng)過微調(diào)):https://huggingface.co/baichuan-inc/Baichuan-13B-Base

            • baichuan-inc/Baichuan-13B:https://github.com/baichuan-inc/Baichuan-13B

            • Baichuan-13B 大模型:

            • 介紹:Baichuan-13B 是由百川智能繼 Baichuan-7B 之后開發(fā)的包含 130 億參數(shù)的開源可商用的大規(guī)模語言模型,在權(quán)威的中文和英文 benchmark 上均取得同尺寸最好的效果。Baichuan-13B 有如下幾個特點(diǎn):


          baichuan-7B
          • 【LLMs 入門實(shí)戰(zhàn) 】 baichuan-7B 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:

            • Github 代碼: https://github.com/baichuan-inc/baichuan-7B

            • 模型:

            • 介紹:由百川智能開發(fā)的一個開源可商用的大規(guī)模預(yù)訓(xùn)練語言模型。基于Transformer結(jié)構(gòu),在大約1.2萬億tokens上訓(xùn)練的70億參數(shù)模型,支持中英雙語,上下文窗口長度為4096。在標(biāo)準(zhǔn)的中文和英文權(quán)威benchmark(C-EVAL/MMLU)上均取得同尺寸最好的效果。


          第二重 Stanford Alpaca 7B

          • 【LLMs 入門實(shí)戰(zhàn) —— 五 】Stanford Alpaca 7B 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 介紹:本教程提供了對LLaMA模型進(jìn)行微調(diào)的廉價親民 LLMs 學(xué)習(xí)和微調(diào) 方式,主要介紹對于 Stanford Alpaca 7B 模型在特定任務(wù)上 的 微調(diào)實(shí)驗(yàn),所用的數(shù)據(jù)為OpenAI提供的GPT模型API生成質(zhì)量較高的指令數(shù)據(jù)(僅52k)。


          第三重 Chinese-LLaMA-Alpaca

          • 【LLMs 入門實(shí)戰(zhàn) —— 六 】Chinese-LLaMA-Alpaca 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 介紹:本教程主要介紹了 Chinese-ChatLLaMA,提供中文對話模型 ChatLLama 、中文基礎(chǔ)模型 LLaMA-zh 及其訓(xùn)練數(shù)據(jù)。 模型基于 TencentPretrain 多模態(tài)預(yù)訓(xùn)練框架構(gòu)建


          第四重 小羊駝 Vicuna

          • 【LLMs 入門實(shí)戰(zhàn) —— 七 】小羊駝 Vicuna模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 介紹:UC伯克利學(xué)者聯(lián)手CMU、斯坦福等,再次推出一個全新模型70億/130億參數(shù)的Vicuna,俗稱「小羊駝」(駱馬)。小羊駝號稱能達(dá)到GPT-4的90%性能


          第五重 MOSS

          • 【LLMs 入門實(shí)戰(zhàn) —— 十三 】MOSS 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 介紹:MOSS是一個支持中英雙語和多種插件的開源對話語言模型,moss-moon系列模型具有160億參數(shù),在FP16精度下可在單張A100/A800或兩張3090顯卡運(yùn)行,在INT4/8精度下可在單張3090顯卡運(yùn)行。MOSS基座語言模型在約七千億中英文以及代碼單詞上預(yù)訓(xùn)練得到,后續(xù)經(jīng)過對話指令微調(diào)、插件增強(qiáng)學(xué)習(xí)和人類偏好訓(xùn)練具備多輪對話能力及使用多種插件的能力。

            • 局限性:由于模型參數(shù)量較小和自回歸生成范式,MOSS仍然可能生成包含事實(shí)性錯誤的誤導(dǎo)性回復(fù)或包含偏見/歧視的有害內(nèi)容,請謹(jǐn)慎鑒別和使用MOSS生成的內(nèi)容,請勿將MOSS生成的有害內(nèi)容傳播至互聯(lián)網(wǎng)。若產(chǎn)生不良后果,由傳播者自負(fù)。


          第六重 BLOOMz

          • 【LLMs 入門實(shí)戰(zhàn) —— 十四 】 BLOOMz 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 介紹:大型語言模型(LLMs)已被證明能夠根據(jù)一些演示或自然語言指令執(zhí)行新的任務(wù)。雖然這些能力已經(jīng)導(dǎo)致了廣泛的采用,但大多數(shù)LLM是由資源豐富的組織開發(fā)的,而且經(jīng)常不對公眾開放。作為使這一強(qiáng)大技術(shù)民主化的一步,我們提出了BLOOM,一個176B參數(shù)的開放性語言模型,它的設(shè)計(jì)和建立要感謝數(shù)百名研究人員的合作。BLOOM是一個僅有解碼器的Transformer語言模型,它是在ROOTS語料庫上訓(xùn)練出來的,該數(shù)據(jù)集包括46種自然語言和13種編程語言(共59種)的數(shù)百個來源。我們發(fā)現(xiàn),BLOOM在各種基準(zhǔn)上取得了有競爭力的性能,在經(jīng)歷了多任務(wù)提示的微調(diào)后,其結(jié)果更加強(qiáng)大。

            • 模型地址:https://huggingface.co/bigscience/bloomz


          第七重 BELLE

          • 【LLMs 入門實(shí)戰(zhàn) —— 十五 】 BELLE 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 介紹:相比如何做好大語言模型的預(yù)訓(xùn)練,BELLE更關(guān)注如何在開源預(yù)訓(xùn)練大語言模型的基礎(chǔ)上,幫助每一個人都能夠得到一個屬于自己的、效果盡可能好的具有指令表現(xiàn)能力的語言模型,降低大語言模型、特別是中文大語言模型的研究和應(yīng)用門檻。為此,BELLE項(xiàng)目會持續(xù)開放指令訓(xùn)練數(shù)據(jù)、相關(guān)模型、訓(xùn)練代碼、應(yīng)用場景等,也會持續(xù)評估不同訓(xùn)練數(shù)據(jù)、訓(xùn)練算法等對模型表現(xiàn)的影響。BELLE針對中文做了優(yōu)化,模型調(diào)優(yōu)僅使用由ChatGPT生產(chǎn)的數(shù)據(jù)(不包含任何其他數(shù)據(jù))。

            • github 地址: https://github.com/LianjiaTech/BELLE


          第八重 ChatRWKV

          • 【LLMs 入門實(shí)戰(zhàn) —— 十八 】 ChatRWKV 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • Raven 模型:適合直接聊天,適合 +i 指令。有很多種語言的版本,看清楚用哪個。適合聊天、完成任務(wù)、寫代碼。可以作為任務(wù)去寫文稿、大綱、故事、詩歌等等,但文筆不如 testNovel 系列模型。

            • Novel-ChnEng 模型:中英文小說模型,可以用 +gen 生成世界設(shè)定(如果會寫 prompt,可以控制下文劇情和人物),可以寫科幻奇幻。不適合聊天,不適合 +i 指令。

            • Novel-Chn 模型:純中文網(wǎng)文模型,只能用 +gen 續(xù)寫網(wǎng)文(不能生成世界設(shè)定等等),但是寫網(wǎng)文寫得更好(也更小白文,適合寫男頻女頻)。不適合聊天,不適合 +i 指令。

            • Novel-ChnEng-ChnPro 模型:將 Novel-ChnEng 在高質(zhì)量作品微調(diào)(名著,科幻,奇幻,古典,翻譯,等等)。

            • 目前 RWKV 有大量模型,對應(yīng)各種場景,各種語言,請選擇合適的模型:

            • github: https://github.com/BlinkDL/ChatRWKV

            • 模型文件:https://huggingface.co/BlinkDL


          第九重 ChatGPT

          • 《ChatGPT Prompt Engineering for Developers》 學(xué)習(xí) 之 如何 編寫 Prompt?

            • 第一個方面:編寫清晰、具體的指令

            • 第二個方面:給模型些時間思考

            • 吳恩達(dá)老師與OpenAI合作推出《ChatGPT Prompt Engineering for Developers》

            • 動機(jī):吳恩達(dá)老師與OpenAI合作推出《ChatGPT Prompt Engineering for Developers》課程

            • 介紹:如何編寫 Prompt:

          • 《ChatGPT Prompt Engineering for Developers》 學(xué)習(xí) 之 如何 優(yōu)化 Prompt?

            • 吳恩達(dá)老師與OpenAI合作推出《ChatGPT Prompt Engineering for Developers》

            • 動機(jī):吳恩達(dá)老師與OpenAI合作推出《ChatGPT Prompt Engineering for Developers》課程

            • 介紹:優(yōu)化編寫好 Prompt

          • 《ChatGPT Prompt Engineering for Developers》 學(xué)習(xí) 之 如何使用 Prompt 處理 NLP特定任務(wù)?

            • 吳恩達(dá)老師與OpenAI合作推出《ChatGPT Prompt Engineering for Developers》

            • 動機(jī):吳恩達(dá)老師與OpenAI合作推出《ChatGPT Prompt Engineering for Developers》課程

            • 介紹:如何構(gòu)建ChatGPT Prompt以處理文本摘要、推斷和轉(zhuǎn)換(翻譯、糾錯、風(fēng)格轉(zhuǎn)換、格式轉(zhuǎn)換等)這些常見的NLP任務(wù)


          第九層 LLMs to interview

          • LLMs 降龍十八掌

            • 為什么 LLMs 不容易出現(xiàn) 災(zāi)難性遺忘問題?

            • LLMs to NLP 下游任務(wù) 經(jīng)驗(yàn)貼

            • 訓(xùn)練數(shù)據(jù)如何構(gòu)建?

            • 如何 融入 之前對話信息

            • 如果只跑一個私有大模型,但是很多用戶同時訪問。這些針對不同用戶的chat history怎么存取比較高效?

            • chatglm微調(diào)完針對相同的問題輸出都是一樣的,有辦法讓他隨機(jī)一點(diǎn)嗎?

            • 使用fastllm加速推理

            • 如何解決大模型遺忘問題#ChatGPT# #LLM (大型語言模型)

            • Fine-Tuning max_length 選擇 問題

            • Fine-Tuning Learning rate 選擇 問題

            • 如何 向GPT/LLM模型添加額外知識?

            • 如何解決LLM大模型fine-tune過擬合問題?

            • 英文模型需要做詞表擴(kuò)充嗎?

            • 全參finetune,數(shù)據(jù)配比?

            • 百川13b強(qiáng)化學(xué)習(xí)時遇到參數(shù)不更新的問題?

            • 使用lion優(yōu)化器節(jié)省顯存?

            • 使用lora訓(xùn)練的參數(shù)配置?

            • ...

            • LLMs Fine-Tuning 經(jīng)驗(yàn)貼

            • LLMs 推理 經(jīng)驗(yàn)貼

            • LLMs 部署 經(jīng)驗(yàn)貼

            • LLMs 多輪對話 經(jīng)驗(yàn)貼

            • 數(shù)據(jù)構(gòu)建篇

            • LLMs 胡思亂想

          • 【LLMs】大模型 千面郎君

            • 大模型【LLMs】提示工程 是什么?

            • 提示工程 如何添加進(jìn) 大模型【LLMs】?

            • 微調(diào)(FineTuning) vs 提示工程?

            • 微調(diào)(FineTuning) vs 提示工程 在應(yīng)用場景中關(guān)系雨聯(lián)系?

            • 大模型【LLMs】Few-shot提示方法 是什么?

            • 大模型【LLMs】中有一種 涌現(xiàn)現(xiàn)象,你知道么?

            • 大模型【LLMs】涌現(xiàn)現(xiàn)象主要體現(xiàn)在哪些方面?

            • 大模型【LLMs】涌現(xiàn)現(xiàn)象主激活方式?

            • 大模型【LLMs】思維鏈問題?

            • 大模型【LLMs】思維鏈本質(zhì)是什么?

            • 大模型【LLMs】思維鏈優(yōu)點(diǎn)是什么?

            • 大模型【LLMs】思維鏈類型和策略?

            • 大模型【LLMs】逐步Zero-shot 介紹?

            • 大模型【LLMs】Zero-shot-CoT提示策略定義?

            • 大模型【LLMs】Zero-shot-CoT提示策略應(yīng)用方法?

            • 大模型【LLMs】Few-shot-CoT提示策略定義?

            • 大模型【LLMs】Few-shot-CoT提示策略核心思想是什么?

            • 大模型【LLMs】Few-shot-CoT提示策略應(yīng)用方法是什么?

            • 大模型【LLMs】泛化問題?

            • 大模型【LLMs】微調(diào)問題?

            • 大模型【LLMs】微調(diào)有哪些優(yōu)點(diǎn)?

            • 大模型【LLMs】指令微調(diào)問題?

            • 簡單介紹強(qiáng)化學(xué)習(xí)?

            • 簡單介紹一下 RLHF?

            • 簡單 介紹一下 大模型【LLMs】?

            • 大模型【LLMs】后面跟的 175B、60B、540B等 指什么?

            • 大模型【LLMs】具有什么優(yōu)點(diǎn)?

            • 大模型【LLMs】具有什么缺點(diǎn)?

            • 大模型常識面

            • 大模型強(qiáng)化學(xué)習(xí)面

            • 大模型【LLMs】微調(diào)篇

            • 大模型【LLMs】思維鏈篇

            • 大模型【LLMs】涌現(xiàn)現(xiàn)象篇

            • 大模型【LLMs】提示工程篇

          • 大模型的重復(fù)生成現(xiàn)象如何緩解?

            • 為何會出現(xiàn)重復(fù)生成現(xiàn)象?

            • 如何減少大模型重復(fù)生成?

          • LoRA這種微調(diào)方法和全參數(shù)比起來有什么劣勢嗎?

            • 什么是 LoRA?

            • LoRA 優(yōu)點(diǎn)是什么?

            • LoRA 缺點(diǎn)是什么?

            • LoRA這種微調(diào)方法和全參數(shù)比起來有什么劣勢嗎?

            • LoRA這種微調(diào)方法和全參數(shù) 如何選擇?

          • LLaMa-1 從原理到實(shí)踐分析

            • LLaMa-1 理論介紹

            • LLaMa 模型架構(gòu)介紹

            • LLaMa 優(yōu)化器介紹

            • LLaMa-1 實(shí)踐介紹

          • LLaMa-2 從原理到實(shí)踐分析

            • LLaMa-2 理論介紹

            • LLaMa-2 實(shí)踐介紹

          • 基于PyTorch來優(yōu)化大模型訓(xùn)練的內(nèi)存(顯存)

            • 為什么需要 使用梯度累積創(chuàng)建微批次(Using Gradient Accumulation to Create Microbatches)?

            • 什么是 使用梯度累積創(chuàng)建微批次(Using Gradient Accumulation to Create Microbatches)?

            • ...

            • 為什么需要 降低訓(xùn)練批處理大小(Reducing the Batchsize)?

            • 什么是 降低訓(xùn)練批處理大小(Reducing the Batchsize)?

            • ...

            • 為什么需要 低精度訓(xùn)練(Lower-Precision Training)?

            • 什么是 低精度訓(xùn)練(Lower-Precision Training)?

            • ...

            • 為什么需要 混合精度訓(xùn)練(Mixed-Precision Training)?

            • 什么是 混合精度訓(xùn)練(Mixed-Precision Training)?

            • 混合精度訓(xùn)練(Mixed-Precision Training)實(shí)現(xiàn)步驟?

            • ...

            • LLMs Fine-Tuning 框架依賴問題?

            • LLMs Fine-Tuning 顯存問題?

            • 如何解決大模型遺忘問題#ChatGPT# #LLM (大型語言模型)?

            • ...

            • 動機(jī):峰值內(nèi)存(顯存)的消耗直接決定了 機(jī)器 是否 支撐大模型訓(xùn)練

            • LLMs Fine-Tuning 經(jīng)驗(yàn)貼

            • 混合精度訓(xùn)練(Mixed-Precision Training)

            • 低精度訓(xùn)練(Lower-Precision Training)

            • 降低訓(xùn)練批處理大小(Reducing the Batchsize)

            • 使用梯度累積創(chuàng)建微批次(Using Gradient Accumulation to Create Microbatches)

          • 如何緩解大模型幻覺?

            • 為什么 會 出現(xiàn) 大模型幻覺?

            • 如何 緩解 大模型幻覺?


          第八層 LLMs to Inference acceleration

          • LLM(大語言模型)部署加速方法——PagedAttention

            • 什么是 PagedAttention?

            • PagedAttention 如何存儲 連續(xù)的key和value?

            • PagedAttention 技術(shù)細(xì)節(jié)?

            • PagedAttention 如何 實(shí)現(xiàn)安全共享?

            • PagedAttention 源碼介紹?

          • LLM(大語言模型)部署加速方法——Faster Transformer

            • 為什么需要 Faster Transformer?

            • 什么是 FasterTransformer?

            • FasterTransformer 核心?

            • FasterTransformer 優(yōu)化?

          • 純Python超輕量高性能LLM推理框架 —— LightLLM

            • TGI由于顯存碎片化嚴(yán)重,所以很難達(dá)到較高的吞吐量;

            • vLLM因引入了PageAttention,但是由于整體實(shí)現(xiàn)細(xì)節(jié)更利于小模型推理,所以在大模型上的并發(fā)性能并不是十分理想(使用的默認(rèn)配置);

            • 相比之下,LightLLM則可以在各種大小的模型下都保持穩(wěn)健的性能,在大模型上(LLaMA-65B)相對TGI和vLLM實(shí)現(xiàn)了3倍左右的2提升。

            • 顯存碎片化嚴(yán)重

            • 請求調(diào)度效率低

            • kernel定制化難度高

            • 為什么 需要 LightLLM ?

            • 介紹:基于純Python語言的大模型推理部署框架LightLLM,方便研究員進(jìn)行輕量級的本地部署和定制修改,用于快速擴(kuò)展對不同模型的支持,吸納層出不窮的優(yōu)秀開源特性,探索最優(yōu)服務(wù)架構(gòu)。

            • LightLLM 性能表現(xiàn)

          • 大模型推理加速工具 —— vLLM

            • 最先進(jìn)的服務(wù)吞吐量;

            • PagedAttention 可以有效的管理注意力的鍵和值;

            • 動態(tài)批處理請求;

            • 優(yōu)化好的 CUDA 內(nèi)核;

            • 介紹:vLLM是一個開源的LLM推理和服務(wù)引擎。它利用了全新的注意力算法「PagedAttention」,有效地管理注意力鍵和值。

            • vLLM 具有哪些特點(diǎn) ?


          第二層 LLMs to Parameter Efficient Fine-Tuning (PEFT)


          第一重 分布式訓(xùn)練神器

          • 分布式訓(xùn)練神器 之 ZeRO 學(xué)習(xí)

            • 動機(jī):雖然 DataParallel (DP) 因?yàn)楹唵我讓?shí)現(xiàn),所以目前應(yīng)用相比于其他兩種 廣泛,但是 由于 DataParallel (DP) 需要 每張卡都存儲一個模型,導(dǎo)致 顯存大小 成為 制約模型規(guī)模 的 主要因素。

            • 核心思路:去除數(shù)據(jù)并行中的冗余參數(shù),使每張卡只存儲一部分模型狀態(tài),從而減少顯存占用。

          • 圖解分布式訓(xùn)練(一) —— 流水線并行(Pipeline Parallelism)

            • 回顧C(jī)hatGPT的發(fā)展歷程,我們可以總結(jié)出大語言模型(LLM)取得驚艷效果的要點(diǎn)(重要性從高到低排序):

            • 愿意燒錢,且接受“燒錢 != 好模型”的現(xiàn)實(shí)

            • 高質(zhì)量的訓(xùn)練語料

            • 高效的分布式訓(xùn)練框架充沛優(yōu)質(zhì)的硬件資源

            • 算法的迭代創(chuàng)新

            • 動機(jī):

            • 介紹:在大模型訓(xùn)練這個系列里,我們將一起探索學(xué)習(xí)幾種經(jīng)典的分布式并行范式,包括流水線并行(Pipeline Parallelism)數(shù)據(jù)并行(Data Parallelism)張量并行(Tensor Parallesim)

          • 圖解分布式訓(xùn)練(二) —— nn.DataParallel

            • 計(jì)算如何協(xié)同?因?yàn)槊總€GPU都需要計(jì)算模型參數(shù)的梯度并將其發(fā)送給其他GPU,因此需要使用同步機(jī)制來保證計(jì)算正確性。一般有兩種同步方式:

            • 數(shù)據(jù)同步:在每個GPU上計(jì)算模型參數(shù)的梯度,然后將梯度發(fā)送到其他GPU上進(jìn)行匯總,最終更新模型參數(shù)。

            • 模型同步:在每個GPU上計(jì)算模型參數(shù)的梯度,然后將模型參數(shù)廣播到其他GPU上進(jìn)行匯總,最終更新模型參數(shù)。

            • 多GPU并行訓(xùn)練的原理就是將模型參數(shù)和數(shù)據(jù)分布到多個GPU上,同時利用多個GPU計(jì)算加速訓(xùn)練過程。具體實(shí)現(xiàn)需要考慮以下兩個問題:

            • 數(shù)據(jù)如何劃分?因?yàn)槟P托枰幚淼臄?shù)據(jù)通常很大,將所有數(shù)據(jù)放入單個GPU內(nèi)存中可能會導(dǎo)致內(nèi)存不足,因此我們需要將數(shù)據(jù)劃分到多個GPU上。

            • 動機(jī):

            • 介紹:

          • 圖解分布式訓(xùn)練(三) —— nn.parallel.DistributedDataParallel

            • **數(shù)據(jù)如何劃分?**因?yàn)槟P托枰幚淼臄?shù)據(jù)通常很大,將所有數(shù)據(jù)放入單個GPU內(nèi)存中可能會導(dǎo)致內(nèi)存不足,因此我們需要將數(shù)據(jù)劃分到多個GPU上。一般有兩種劃分方式:

            • **計(jì)算如何協(xié)同?**因?yàn)槊總€GPU都需要計(jì)算模型參數(shù)的梯度并將其發(fā)送給其他GPU,因此需要使用同步機(jī)制來保證計(jì)算正確性。一般有兩種同步方式:

            • DP 只支持 單機(jī)多卡場景,在 多機(jī)多卡 場景 下,DP 的 通訊問題將被放大:

            • 數(shù)據(jù)并行:將數(shù)據(jù)分割成多個小批次,每個GPU處理其中的一個小批次,然后將梯度匯總后更新模型參數(shù)。

            • 模型并行:將模型分解成多個部分,每個GPU處理其中一個部分,并將處理結(jié)果傳遞給其他GPU以獲得最終結(jié)果。

            • 數(shù)據(jù)同步:在每個GPU上計(jì)算模型參數(shù)的梯度,然后將梯度發(fā)送到其他GPU上進(jìn)行匯總,最終更新模型參數(shù)。

            • 模型同步:在每個GPU上計(jì)算模型參數(shù)的梯度,然后將模型參數(shù)廣播到其他GPU上進(jìn)行匯總,最終更新模型參數(shù)。

            • DDP首先要解決的就是通訊問題:將Server上的通訊壓力均衡轉(zhuǎn)到各個Worker上。實(shí)現(xiàn)這一點(diǎn)后,可以進(jìn)一步去Server,留Worker。

            • 動機(jī):

            • 介紹:上節(jié)講到 DP 只支持 單機(jī)多卡場景,主要原因是 DP 無法數(shù)據(jù)并行中通訊負(fù)載不均的問題, 而 DDP 能夠解決 該問題 的 核心在于 Ring-AllReduce。它由百度最先提出,非常有效地解決了數(shù)據(jù)并行中通訊負(fù)載不均的問題,使得DDP得以實(shí)現(xiàn)。

          • 圖解分布式訓(xùn)練(四) —— torch.multiprocessing 詳細(xì)解析

            • 介紹:torch.multiprocessing是本機(jī)multiprocessing模塊的封裝。封裝了multiprocessing模塊。它注冊自定義的reducer,它使用共享內(nèi)存為不同進(jìn)程中的相同數(shù)據(jù)提供視圖共享。一旦張量/存儲被移動到shared_memory(參見sharememory()),就可以將其發(fā)送到其他進(jìn)程而不進(jìn)行其它任何操作。

          • 圖解分布式訓(xùn)練(五) —— AMP混合精度訓(xùn)練 詳細(xì)解析

            • 動機(jī):PyTorch 1.6版本今天發(fā)布了,帶來的最大更新就是自動混合精度。

            • 介紹:在某些上下文中torch.FloatTensor有優(yōu)勢,在某些上下文中torch.HalfTensor有優(yōu)勢唄。答案進(jìn)一步可以轉(zhuǎn)化為,相比于之前的默認(rèn)的torch.FloatTensor,torch.HalfTensor有時具有優(yōu)勢,有時劣勢不可忽視。

          • 圖解分布式訓(xùn)練(六) —— Pytorch的 DeepSpeed 詳細(xì)解析

            • 最常見的深度學(xué)習(xí)框架應(yīng)該是TensorFlow、Pytorch、Keras,但是這些框架在面向大規(guī)模模型的時候都不是很方便。

            • 比如Pytorch的分布式并行計(jì)算框架(Distributed Data Parallel,簡稱DDP),它也僅僅是能將數(shù)據(jù)并行,放到各個GPU的模型上進(jìn)行訓(xùn)練。

            • 也就是說,DDP的應(yīng)用場景在你的模型大小大于顯卡顯存大小時,它就很難繼續(xù)使用了,除非你自己再將模型參數(shù)拆散分散到各個GPU上。

            • 動機(jī):

            • 介紹:在分布式計(jì)算環(huán)境中,需要理解幾個非常基礎(chǔ)的概念:節(jié)點(diǎn)編號、全局進(jìn)程編號、局部進(jìn)程編號、全局總進(jìn)程數(shù)和主節(jié)點(diǎn)。其中,主節(jié)點(diǎn)負(fù)責(zé)協(xié)調(diào)所有其他節(jié)點(diǎn)和進(jìn)程的工作,因此是整個系統(tǒng)的關(guān)鍵部分。

          • 圖解分布式訓(xùn)練(七) —— accelerate 分布式訓(xùn)練 詳細(xì)解析

            • 介紹:PyTorch Accelerate 是一個 PyTorch 的加速工具包,旨在簡化 PyTorch 訓(xùn)練和推斷的開發(fā)過程,并提高性能。它是由 Hugging Face、NVIDIA、AWS 和 Microsoft 等公司聯(lián)合開發(fā)的,是一個開源項(xiàng)目。


          第二重 LLMs Trick

          • LLMs Trick


          第三重 LLMTune

          • 【LLMs 入門實(shí)戰(zhàn) —— 十六 】 LLMTune 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 動機(jī):大語言模型雖然能力很強(qiáng),目前開源生態(tài)也很豐富,但是在特定領(lǐng)域微調(diào)大模型依然需要大規(guī)格的顯卡。例如,清華大學(xué)發(fā)布的ChatGLM-6B,參數(shù)規(guī)模60億,在沒有量化的情況下微調(diào)需要14GB顯存(parameter-efficient fine-tuning,PEFT)。在沒有任何優(yōu)化的前提下,每10億參數(shù)的全精度(32bit)模型載入到顯存中就需要4GB,而int8量化后也需要1GB顯存。而目前開源最強(qiáng)的模型LLaMA,其最高參數(shù)維650億規(guī)模,全精度模型載入就需要260GB,顯然已經(jīng)超出了大部分人的硬件水平。更不要說對模型進(jìn)行微調(diào)(微調(diào)需要訓(xùn)練更新參數(shù),推理只需要前向計(jì)算即可,因此,微調(diào)需要更多的顯存才能支持)。

            • 介紹:Cornell Tech開源的LLMTune就是為了降低大模型微調(diào)難度所提出的一種解決方案。對于650億參數(shù)的LLaMA模型微調(diào)僅需要40GB顯存即可。

            • github 地址: https://github.com/kuleshov-group/llmtune


          第四重 QLoRA

          • 【LLMs 入門實(shí)戰(zhàn) —— 二十 】 QLoRA 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 特點(diǎn):

            • (a)4位NormalFloat(NF4),這是一種對于正態(tài)分布權(quán)重來說在信息論上是最優(yōu)的數(shù)據(jù)類型;

            • (b)雙量化,通過量化量化常數(shù)來減少平均內(nèi)存占用;

            • (c)分頁優(yōu)化器,用于管理內(nèi)存峰值。

            • 在Vicuna基準(zhǔn)測試中表現(xiàn)優(yōu)于所有先前公開發(fā)布的模型,達(dá)到ChatGPT性能水平的99.3%,僅需要單個GPU上的24小時微調(diào)時間;

            • QLORA引入了一些創(chuàng)新來節(jié)省內(nèi)存而不犧牲性能:

            • https://huggingface.co/BlinkDL

            • artidoro/qlora

            • 模型:timdettmers (Tim Dettmers)

            • 量化代碼:TimDettmers/bitsandbytes

            • BLOG : Making LLMs even more accessible with bitsandbytes, 4-bit quantization and QLoRA

            • Demo環(huán)境:Guanaco Playground Tgi - a Hugging Face Space by uwnlp

            • 介紹:5月24日華盛頓大學(xué)的研究者發(fā)布了QLoRA技術(shù)及用其生成的Guanaco大模型。

          • 【LLMs 入門實(shí)戰(zhàn) —— 二十七 】【QLoRA實(shí)戰(zhàn)】使用單卡高效微調(diào)bloom-7b1

            • https://huggingface.co/BlinkDL

            • artidoro/qlora

            • 模型:timdettmers (Tim Dettmers)

            • 量化代碼:TimDettmers/bitsandbytes

            • BLOG : Making LLMs even more accessible with bitsandbytes, 4-bit quantization and QLoRA

          • 【LLMs 入門實(shí)戰(zhàn) 】Anima 學(xué)習(xí)與實(shí)戰(zhàn)

            • Github 代碼:https://github.com/lyogavin/Anima

            • 模型:https://huggingface.co/lyogavin/Anima33B

            • 動機(jī):之前大部分開源可finetune的模型大都是比較小的模型7B或者13B,雖然可以在一些簡單的chatbot評測集上,通過finetune訓(xùn)練有不錯的表現(xiàn)。但是由于這些模型規(guī)模還是有限,LLM核心的reasoning的能力還是相對比較弱。這就是為什么很多這種小規(guī)模的模型在實(shí)際應(yīng)用的場景表現(xiàn)像是個玩具。chatbot評測集比較簡單,真正比較考驗(yàn)?zāi)P湍芰Φ膹?fù)雜邏輯推理及數(shù)學(xué)問題上小模型和大模型差距還是很明顯的。

            • 介紹:QLoRA的優(yōu)化方法,第一次讓33B規(guī)模的模型可以比較民主化的,比較低成本的finetune訓(xùn)練,讓33B模型的普及使用成為了可能。我們認(rèn)為33B模型既可以發(fā)揮大規(guī)模模型的比較強(qiáng)的推理能力,又可以針對私有業(yè)務(wù)領(lǐng)域數(shù)據(jù)進(jìn)行靈活的finetune訓(xùn)練提升對于LLM的控制力。


          第三層 LLMs to Artifact


          第一重 langchain

          • 【LLMs 入門實(shí)戰(zhàn) —— 十二 】基于 本地知識庫 的高效 ??langchain-ChatGLM

            • 介紹:langchain-ChatGLM是一個基于本地知識的問答機(jī)器人,使用者可以自由配置本地知識,用戶問題的答案也是基于本地知識生成的。

          • 【LLMs 入門實(shí)戰(zhàn) —— 三十一 】Vicuna-LangChain 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 介紹:一個簡單的類LangChain實(shí)現(xiàn),基于Sentence Embedding+本地知識庫,以Vicuna作為生成模型。支持中英雙語,支持pdf、html和docx格式的文檔作為知識 庫。

            • Vicuna-LangChain 思路

            1. 提取知識庫文件夾中的文檔文本,分割成chunk_length大小的文本塊

            2. 通過shibing624/text2vec-base-chinese模型計(jì)算各文本塊的嵌入

            3. 計(jì)算問題文本嵌入和各文本塊的嵌入的余弦相似度

            4. 返回余弦相似度最高的k個文本作為給定信息生成prompt

            5. 將prompt歷史替換為最初問的問題

            6. 將prompt交給vicuna模型生成答案

          • 【LLMs 入門實(shí)戰(zhàn)】基于 本地知識庫 的高效 ??langchain-ChatGLM2

            • 介紹:langchain-ChatGLM2是一個基于本地知識的問答機(jī)器人,使用者可以自由配置本地知識,用戶問題的答案也是基于本地知識生成的。


          第二重 wenda

          • 【LLMs 入門實(shí)戰(zhàn)】基于 本地知識庫 的高效 ??wenda+ChatGLM2-6B

            • 知識庫:支持對接本地離線向量庫、本地搜索引擎、在線搜索引擎等。

            • 多種大語言模型:目前支持離線部署模型有chatGLM-6B\chatGLM2-6B、chatRWKV、llama系列(不推薦中文用戶)、moss(不推薦)、baichuan(需配合lora使用,否則效果差)、Aquila-7B,在線API訪問openai api和chatGLM-130b api。

            • Auto腳本:通過開發(fā)插件形式的JavaScript腳本,為平臺附件功能,實(shí)現(xiàn)包括但不限于自定義對話流程、訪問外部API、在線切換LoRA模型。

            • 其他實(shí)用化所需能力:對話歷史管理、內(nèi)網(wǎng)部署、多用戶同時使用等。

            • 介紹:本項(xiàng)目設(shè)計(jì)目標(biāo)為實(shí)現(xiàn)針對特定環(huán)境的高效內(nèi)容生成,同時考慮個人和中小企業(yè)的計(jì)算資源局限性,以及知識安全和私密性問題。為達(dá)目標(biāo),平臺化集成了以下能力:


          第三重 AutoGPT

          • AutoGPT 使用和部署

            • 介紹:Auto-GPT是一個基于ChatGPT的工具,他能幫你自動完成各種任務(wù),比如寫代碼、寫報告、做調(diào)研等等。使用它時,你只需要告訴他要扮演的角色和要實(shí)現(xiàn)的目標(biāo),然后他就會利用ChatGPT和谷歌搜索等工具,不斷“思考”如何接近目標(biāo)并執(zhí)行,你甚至可以看到他的思考過程。


          第四重 Knowledge Extraction

          • 【LLMs 入門實(shí)戰(zhàn) 】 DeepKE-LLM 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • DeepKE-LLM鏈接:https://github.com/zjunlp/DeepKE/tree/main/example/llm

            • OpenKG地址:http://openkg.cn/tool/deepke

            • Gitee地址:https://gitee.com/openkg/deepke/tree/main/example/llm

            • 介紹:DeepKE是一個開源可擴(kuò)展的知識圖譜抽取工具,可實(shí)現(xiàn)命名實(shí)體識別、關(guān)系抽取和屬性抽取等抽取任務(wù),并支持低資源少樣本、文檔篇章和多模態(tài)等復(fù)雜場景。在大模型時代,我們對DeepKE進(jìn)行了全面升級并發(fā)布大模型版DeepKE-LLM(智析抽取大模型)。該版本基于大模型對數(shù)據(jù)進(jìn)行智能解析以實(shí)現(xiàn)知識抽取,支持多種大模型、遵循指令和自定義知識類型、格式。


          第四層 LLMs to Text-to-Image


          第一重 Stable Diffusion

          • 【LLMs 入門實(shí)戰(zhàn) —— 二十二 】Stable Diffusion 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • Github 地址:https://github.com/gediz/lstein-stable-diffusion

            • 預(yù)訓(xùn)練模型:https://huggingface.co/CompVis/stable-diffusion

            • 介紹:Stable Diffusion是一種潛在擴(kuò)散模型(Latent Diffusion Model),能夠從文本描述中生成詳細(xì)的圖像。它還可以用于圖像修復(fù)、圖像繪制、文本到圖像和圖像到圖像等任務(wù)。簡單地說,我們只要給出想要的圖片的文字描述在提Stable Diffusion就能生成符合你要求的逼真的圖像!

          • 【LLMs 入門實(shí)戰(zhàn) —— 二十三 】Stable Diffusion Webui 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • Github 地址:https://github.com/AUTOMATIC1111/stable-diffusion-webui

            • 預(yù)訓(xùn)練模型:https://huggingface.co/CompVis/stable-diffusion

            • 介紹:Stable Diffusion是一款功能異常強(qiáng)大的AI圖片生成器。它不僅支持生成圖片,使用各種各樣的模型來達(dá)到你想要的效果,還能訓(xùn)練你自己的專屬模型。WebUI使得Stable Diffusion有了一個更直觀的用戶界面,更適合新手用戶。

          • 【LLMs 入門實(shí)戰(zhàn) —— 二十四 】Novelai 模型學(xué)習(xí)與實(shí)戰(zhàn)

          • 【LLMs 入門實(shí)戰(zhàn) —— 二十五 】lora 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • Github 地址:https://github.com/microsoft/LoRA

            • 預(yù)訓(xùn)練模型:https://huggingface.co/johnsmith007/LoRAs/tree/main

            • 介紹:LoRA的全稱是LoRA: Low-Rank Adaptation of Large Language Models,可以理解為stable diffusion(SD)模型的一種插件,和hyper-network,controlNet一樣,都是在不修改SD模型的前提下,利用少量數(shù)據(jù)訓(xùn)練出一種畫風(fēng)/IP/人物,實(shí)現(xiàn)定制化需求,所需的訓(xùn)練資源比訓(xùn)練SD模要小很多,非常適合社區(qū)使用者和個人開發(fā)者。


          第五層 LLMs to Visual Question Answering (VQA)


          第一重 BLIP

          • 【LLMs 入門實(shí)戰(zhàn) —— 二十二】 BLIP 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • (1) 編碼器-解碼器 (MED) 的多模式混合:一種用于有效多任務(wù)預(yù)訓(xùn)練和靈活遷移學(xué)習(xí)的新模型架構(gòu)。MED可以作為單模態(tài)編碼器、基于圖像的文本編碼器或基于圖像的文本解碼器工作。該模型與三個視覺語言目標(biāo)聯(lián)合預(yù)訓(xùn)練:圖像文本對比學(xué)習(xí)、圖像文本匹配和圖像條件語言建模

            • (2) 字幕和過濾(Captioning and Filtering,CapFilt):一種新的數(shù)據(jù)集增強(qiáng)方法,用于從噪聲圖像-文本對中學(xué)習(xí)。作者將預(yù)先訓(xùn)練的MED分為兩個模塊: 一個字幕器,用于生成給定web圖像的合成字幕,以及一個過濾器,用于從原始web文本和合成文本中刪除嘈雜的字幕

            • 模型角度:

            • 數(shù)據(jù)角度: 大多數(shù)SOTA的方法(如CLIP、ALBEF等)都在從web上收集到的圖文對上進(jìn)行預(yù)訓(xùn)練。盡管通過擴(kuò)展數(shù)據(jù)集獲得了性能提升,但 BLIP 的研究表明,對于視覺語言學(xué)習(xí)來說,有噪聲的網(wǎng)絡(luò)文本是次優(yōu)的。

            • 現(xiàn)有方法:大多數(shù)方法要么采用基于編碼器的模型,要么采用編碼器-解碼器模型。

            • 存在問題:基于編碼器的模型不太容易直接轉(zhuǎn)換到文本生成任務(wù)(例如圖像字幕),而編碼器-解碼器模型尚未成功用于圖像文本檢索任務(wù)

            • 論文名稱:BLIP: Bootstrapping Language-Image Pre-training for Uni?ed Vision-Language Understanding and Generation

            • 論文地址:https://arxiv.org/abs/2201.12086

            • 代碼地址:https://github.com/salesforce/BLIP

            • 局限性:

            • BLIP總體思路:作為新的 VLP 框架,BLIP 用于統(tǒng)一視覺語言理解和生成的 Bootstrapping Language-Image 預(yù)訓(xùn)練,可以靈活地遷移到視覺語言理解和生成任務(wù)。 BLIP 通過引導(dǎo)字幕有效地利用了嘈雜的網(wǎng)絡(luò)數(shù)據(jù),字幕生成器生成合成字幕,過濾器去除嘈雜的字幕

            • 貢獻(xiàn):


          第二重 BLIP2

          • 【LLMs 入門實(shí)戰(zhàn) —— 二十六】 BLIP2 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • BLIP-2, 一種通用而有效的預(yù)訓(xùn)練策略,它從現(xiàn)成的凍結(jié)預(yù)訓(xùn)練圖像編碼器和凍結(jié)的大型語言模型中引導(dǎo)視覺語言預(yù)訓(xùn)練。

            • 通過一個輕量級的 Querying Transformer (Q-Former是一個輕量級的 transformer,它使用一組可學(xué)習(xí)的查詢向量來從凍結(jié)圖像編碼器中提取視覺特征,為LLM提供最有用的視覺特征,以輸出所需的文本) 彌補(bǔ)了模態(tài) gap,該 Transformer 分兩個階段進(jìn)行預(yù)訓(xùn)練:

            • 第一階段:從凍結(jié)圖像編碼器引導(dǎo)視覺語言表示學(xué)習(xí),強(qiáng)制 Q-Former 學(xué)習(xí)與文本最相關(guān)的視覺表示;

            • 第二階段:將視覺從凍結(jié)的語言模型引導(dǎo)到語言生成學(xué)習(xí),將Q-Former的輸出連接到凍結(jié)的LLM,并對Q-Former進(jìn)行訓(xùn)練,使其輸出視覺表示能夠被LLM解釋。

            • 由于大規(guī)模模型的端到端訓(xùn)練,視覺和語言預(yù)訓(xùn)練的成本變得越來越高

            • 為了降低計(jì)算成本并抵消災(zāi)難性遺忘的問題,希望在 Vision-language pre-training (VLP) 中固定視覺模型參數(shù)與語言模型參數(shù)。然而,由于語言模型在其單模態(tài)預(yù)訓(xùn)練期間沒有看到圖像,因此凍結(jié)它們使得視覺語言對齊尤其具有挑戰(zhàn)性

            • 論文名稱:BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models

            • 單位:Salesforce 研究院

            • 論文地址:https://arxiv.org/abs/2301.12597

            • 代碼地址:https://github.com/salesforce/LAVIS/tree/main/projects/blip2

            • HF上的Demo:https://huggingface.co/spaces/Salesforce/BLIP2

            • 動機(jī)

            • 介紹:


          第三重 MiniGPT-4

          • 【LLMs 入門實(shí)戰(zhàn) —— 八 】MiniGPT-4 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • Github 鏈接: https://github.com/Vision-CAIR/MiniGPT-4

            • 介紹: MiniGPT-4,是來自阿卜杜拉國王科技大學(xué)的幾位博士做的,它能提供類似 GPT-4 的圖像理解與對話能力


          第四重 VisualGLM-6B

          • 【LLMs 入門實(shí)戰(zhàn) —— 十七 】 VisualGLM-6B 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • Github 鏈接: https://github.com/THUDM/VisualGLM-6B

            • Huggingface 鏈接:https://huggingface.co/THUDM/visualglm-6b

            • 動機(jī):OpenAI 的GPT-4樣例中展現(xiàn)出令人印象深刻的多模態(tài)理解能力,但是能理解圖像的中文開源對話模型仍是空白。

            • 介紹:VisualGLM-6B 是一個開源的,支持圖像、中文和英文的多模態(tài)對話語言模型,語言模型基于 ChatGLM-6B,具有 62 億參數(shù);圖像部分通過訓(xùn)練 BLIP2-Qformer 構(gòu)建起視覺模型與語言模型的橋梁,整體模型共 78 億參數(shù)。VisualGLM-6B 依靠來自于 CogView 數(shù)據(jù)集的30M高質(zhì)量中文圖文對,與 300M 經(jīng)過篩選的英文圖文對進(jìn)行預(yù)訓(xùn)練,中英文權(quán)重相同。該訓(xùn)練方式較好地將視覺信息對齊到 ChatGLM 的語義空間;之后的微調(diào)階段,模型在長視覺問答數(shù)據(jù)上訓(xùn)練,以生成符合人類偏好的答案。

            • github 地址:https://github.com/THUDM/VisualGLM-6B


          第五重 Ziya-Visual

          • 【LLMs 入門實(shí)戰(zhàn) 】 Ziya-Visual 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • Ziya-Visual模型開源地址:https://huggingface.co/IDEA-CCNL/Ziya-BLIP2-14B-Visual-v1L/Ziya-BLIP2-14B-Visual-v1

            • Demo體驗(yàn)地址:https://huggingface.co/spaces/IDEA-CCNL/Ziya-BLIP2-14B-Visual-v1-DemoDEA-CCNL/Ziya-BLIP2-14B-Visual-v1-Demo

            • Ziya開源模型:https://huggingface.co/IDEA-CCNL/Ziya-LLaMA-13B-v1L/Ziya-LLaMA-13B-v1

            • 封神榜項(xiàng)目主頁:https://github.com/IDEA-CCNL/Fengshenbang-LM

            • 介紹:自從3月份OpenAI發(fā)布具有識圖能力的多模態(tài)大模型GPT-4,大模型的能力便不再局限于文本輸入-文本輸出的形式,人們可以上傳視覺圖片來與大模型進(jìn)行聊天和交互。遺憾的是,時至今日絕大部分用戶也都還沒有拿到GPT-4輸入圖片的權(quán)限,無法體驗(yàn)到結(jié)合視覺和語言兩大模態(tài)的大模型的卓越能力,而且GPT-4也沒有敘述或者開源GPT模型多模態(tài)預(yù)訓(xùn)練的方案。與之相對的是,學(xué)術(shù)界和開源界則充分探索了視覺預(yù)訓(xùn)練模型(比如ViT, Vision Transformer)與大語言模型(LLM,Large Language Model)結(jié)合,從而讓目前的LLM獲得輸入圖片、認(rèn)識圖片的能力。其中的代表工作包括國外團(tuán)隊(duì)開源的Mini-GPT4[1],LLaVA[2]等,國內(nèi)團(tuán)隊(duì)開源的VisuaGLM[3],mPLUG-Owl[4]等工作。大部分的開源方案參考了BLIP2的訓(xùn)練方案[5],選擇凍結(jié)LLM部分的參數(shù)訓(xùn)練或者采用Lora等parameter-efficient的微調(diào)訓(xùn)練方式。IDEA研究院封神榜團(tuán)隊(duì)在5月17日發(fā)布“姜子牙通用大模型v1”之后,繼續(xù)發(fā)布Ziya-BLIP2-14B-Visual-v1多模態(tài)大模型(以下簡稱Ziya-Visual模型)。和Ziya大模型一樣,Ziya-Visual模型具備中英雙語能力,特別是中文能力較為突出。和所有基于BLIP2的方案類似,我們簡單高效的擴(kuò)展了LLM的識圖能力。該模型對比VisualGLM、mPLUG-Owl模型,在視覺問答(VQA)評價和GPT-4打分評價[2]中,展現(xiàn)了一些優(yōu)勢。


          第六層 LLMs to Automatic Speech Recognition (ASR)


          第一重 Massively Multilingual Speech (MMS,大規(guī)模多語種語音)

          • 【LLMs 入門實(shí)戰(zhàn) —— 二十 】 Massively Multilingual Speech (MMS,大規(guī)模多語種語音) 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文:Scaling Speech Technology to 1,000+ Languages

            • 代碼:fairseq/tree/main/examples/mms

            • 公告:https://ai.facebook.com/blog/multilingual-model-speech-recognition/

            • 介紹:Meta 在 GitHub 上再次開源了一款全新的 AI 語言模型——Massively Multilingual Speech (MMS,大規(guī)模多語種語音),它與 ChatGPT 有著很大的不同,這款新的語言模型可以識別 4000 多種口頭語言并生成 1100 多種語音(文本到語音)。


          第二重 whisper

          • 【LLMs 入門實(shí)戰(zhàn)】 whisper 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • Introducing Whisper: https://openai.com/blog/whisper/

            • Robust Speech Recognition via Large-Scale Weak Supervision: https://cdn.openai.com/papers/whisper.pdf

            • openai/whisper: https://github.com/openai/whisper

            • Huggin一 Face地址:Whisper - a Hugging Face Space by openai:https://huggingface.co/spaces/openai/whisper

            • Colab地址:Google Colaboratory: https://colab.research.google.com/github/openai/whisper/blob/master/notebooks/LibriSpeech.ipynb

            • 介紹:Whisper這個模型是OpenAI在今年九月釋放出來的吧(2022/09/21)Introducing Whisper ,不過這個效果真的是太好了,它的泛化性能跟別的模型一比,真是天上地下啊。

          • 【LLMs 入門實(shí)戰(zhàn)】 Faster-Whisper 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 前端:將語音信號轉(zhuǎn)換為頻譜圖,使用CNN進(jìn)行特征提取。

            • 后端:使用RNN進(jìn)行序列建模,輸出每個時間步的概率分布。

            • 解碼器:將概率分布轉(zhuǎn)換為最終的文本輸出。

            • Making OpenAI Whisper faster:https://nikolas.blog/making-openai-whisper-faster/

            • Faster Whisper transcription with CTranslate2 :https://github.com/guillaumekln/faster-whisper

            • sanchit-gandhi/whisper-jax#creating-an-endpoint:https://github.com/sanchit-gandhi/whisper-jax#creating-an-endpoint

            • 介紹:Faster-Whisper是一種基于深度學(xué)習(xí)的語音識別模型,它采用了一種新穎的架構(gòu),可以在保持準(zhǔn)確性的同時提高速度。Faster-Whisper的設(shè)計(jì)靈感來自于目標(biāo)檢測領(lǐng)域的Faster R-CNN模型,它將語音信號轉(zhuǎn)換為頻譜圖,并使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)進(jìn)行特征提取和序列建模。Faster-Whisper的主要優(yōu)點(diǎn)是速度快、準(zhǔn)確性高、可擴(kuò)展性強(qiáng),適用于大規(guī)模語音識別任務(wù)。

            • Faster-Whisper的架構(gòu)包括三個主要組件:


          第七層 LLMs to Text To Speech (TTS)


          第一重 Massively Multilingual Speech (MMS,大規(guī)模多語種語音)

          • 【LLMs 入門實(shí)戰(zhàn) —— 二十 】 Massively Multilingual Speech (MMS,大規(guī)模多語種語音) 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文:Scaling Speech Technology to 1,000+ Languages

            • 代碼:fairseq/tree/main/examples/mms

            • 公告:https://ai.facebook.com/blog/multilingual-model-speech-recognition/

            • 介紹:Meta 在 GitHub 上再次開源了一款全新的 AI 語言模型——Massively Multilingual Speech (MMS,大規(guī)模多語種語音),它與 ChatGPT 有著很大的不同,這款新的語言模型可以識別 4000 多種口頭語言并生成 1100 多種語音(文本到語音)。


          第二重 Retrieval-based-Voice-Conversion

          • 【LLMs 入門實(shí)戰(zhàn)】 Retrieval-based-Voice-Conversion-WebUI 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 使用top1檢索替換輸入源特征為訓(xùn)練集特征來杜絕音色泄漏

            • 即便在相對較差的顯卡上也能快速訓(xùn)練

            • 使用少量數(shù)據(jù)進(jìn)行訓(xùn)練也能得到較好結(jié)果(推薦至少收集10分鐘低底噪語音數(shù)據(jù))

            • 可以通過模型融合來改變音色(借助ckpt處理選項(xiàng)卡中的ckpt-merge)

            • 簡單易用的網(wǎng)頁界面

            • 可調(diào)用UVR5模型來快速分離人聲和伴奏

            • 名稱:Retrieval-based-Voice-Conversion-WebUI

            • 論文地址:https://arxiv.org/abs/2305.18975

            • Github 代碼:https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI

            • 使用了RVC的實(shí)時語音轉(zhuǎn)換: w-okada/voice-changer

            • 使用了RVC變聲器訓(xùn)練的人聲轉(zhuǎn)木吉他模型在線demo :https://huggingface.co/spaces/lj1995/vocal2guitar

            • RVC人聲轉(zhuǎn)吉他效果展示視頻 :https://www.bilibili.com/video/BV19W4y1D7tT/

            • 介紹:一個基于VITS的簡單易用的語音轉(zhuǎn)換(變聲器)框架

            • 特點(diǎn)

          • 【LLMs 入門實(shí)戰(zhàn)】 kNN-VC 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:Voice Conversion With Just Nearest Neighbors (kNN-VC)

            • 論文地址:https://arxiv.org/abs/2305.18975

            • Github 代碼:https://github.com/bshall/knn-vc


          LLaMA 衍生物系列


          第五重 GPT4ALL

          • 【LLMs 入門實(shí)戰(zhàn) —— 八 】GPT4ALL 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 介紹:一個 可以在自己筆記本上面跑起來的 Nomic AI 的助手式聊天機(jī)器人,成為貧民家孩子的 福音!


          第十一重 OpenBuddy

          • 【LLMs 入門實(shí)戰(zhàn) —— 二十八 】 OpenBuddy 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:OpenBuddy - Open Multilingual Chatbot based on Falcon

            • github 地址:https://github.com/OpenBuddy/OpenBuddy

            • 動機(jī):雖然目前 很多人 LLMs 層出不窮,但是他們并不能 在 多語言支持無縫銜接(eg: LLaMA 模型由于是用 英語訓(xùn)練,所以在 中文等其他語種上效果并不好)

            • 介紹:基于 Tii 的 Falcon 模型和 Facebook 的 LLaMA 模型構(gòu)建,OpenBuddy 經(jīng)過微調(diào),包括擴(kuò)展詞匯表、增加常見字符和增強(qiáng) token 嵌入。通過利用這些改進(jìn)和多輪對話數(shù)據(jù)集,OpenBuddy 提供了一個強(qiáng)大的模型,能夠回答各種語言的問題并執(zhí)行翻譯任務(wù)。


          第十二重 Baize

          • 【LLMs 入門實(shí)戰(zhàn) —— 三十 】Baize 學(xué)習(xí)與實(shí)戰(zhàn)

            • baize-v2-7b 模型:https://huggingface.co/project-baize/baize-v2-7b

            • baize-v2-13b 模型:https://huggingface.co/project-baize/baize-v2-13b

            • 論文名稱:Baize: An Open-Source Chat Model with Parameter-Efficient Tuning on Self-Chat Data

            • 論文地址:https://arxiv.org/abs/2304.01196

            • Github 代碼:https://github.com/project-baize/baize-chatbot/blob/main/README.md

            • 模型:

            • baize 體驗(yàn)網(wǎng)站:https://huggingface.co/spaces/project-baize/baize-lora-7B

            • 動機(jī):高質(zhì)量的標(biāo)注數(shù)據(jù)問題

            • 介紹:Baize 作者 提出了一個自動收集 ChatGPT 對話的流水線,通過從特定數(shù)據(jù)集中采樣「種子」的方式,讓 ChatGPT 自我對話,批量生成高質(zhì)量多輪對話數(shù)據(jù)集。其中如果使用領(lǐng)域特定數(shù)據(jù)集,比如醫(yī)學(xué)問答數(shù)據(jù)集,就可以生成高質(zhì)量垂直領(lǐng)域語料。


          第十三重 OpenChineseLLaMA

          • 【LLMs 入門實(shí)戰(zhàn) 】OpenChineseLLaMA 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:

            • Github 代碼:https://github.com/OpenLMLab/OpenChineseLLaMA

            • 模型:https://huggingface.co/openlmlab/open-chinese-llama-7b-patch

            • 介紹:基于 LLaMA-7B 經(jīng)過中文數(shù)據(jù)集增量預(yù)訓(xùn)練產(chǎn)生的中文大語言模型基座,對比原版 LLaMA,該模型在中文理解能力和生成能力方面均獲得較大提升,在眾多下游任務(wù)中均取得了突出的成績。


          第十四重 Panda

          • 【LLMs 入門實(shí)戰(zhàn) 】Panda 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:Panda LLM: Training Data and Evaluation for Open-Sourced Chinese Instruction-Following Large Language Models

            • 論文地址:https://arxiv.org/pdf/2305.03025v1.pdf

            • Github 代碼:https://github.com/dandelionsllm/pandallm

            • 模型:

            • 介紹:開源了基于LLaMA-7B, -13B, -33B, -65B 進(jìn)行中文領(lǐng)域上的持續(xù)預(yù)訓(xùn)練的語言模型, 使用了接近 15M 條數(shù)據(jù)進(jìn)行二次預(yù)訓(xùn)練。


          第十五重 Ziya-LLaMA-13B

          • 【LLMs 入門實(shí)戰(zhàn) 】 Ziya-LLaMA-13B 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:

            • Github 代碼:https://huggingface.co/IDEA-CCNL/Ziya-LLaMA-13B-v1

            • 模型:

            • 介紹:該項(xiàng)目開源了姜子牙通用大模型V1,是基于LLaMa的130億參數(shù)的大規(guī)模預(yù)訓(xùn)練模型,具備翻譯,編程,文本分類,信息抽取,摘要,文案生成,常識問答和數(shù)學(xué)計(jì)算等能力。該模型已完成大規(guī)模預(yù)訓(xùn)練、多任務(wù)有監(jiān)督微調(diào)和人類反饋學(xué)習(xí)三階段的訓(xùn)練過程。


          第十六重 BiLLa

          • 【LLMs 入門實(shí)戰(zhàn) 】 BiLLa 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:BiLLa: A Bilingual LLaMA with Enhanced Reasoning Ability

            • 論文地址:

            • Github 代碼:https://github.com/Neutralzz/BiLLa

            • 模型:

            • 介紹:該項(xiàng)目開源了推理能力增強(qiáng)的中英雙語LLaMA模型。模型的主要特性有:較大提升LLaMA的中文理解能力,并盡可能減少對原始LLaMA英文能力的損傷;訓(xùn)練過程增加較多的任務(wù)型數(shù)據(jù),利用ChatGPT生成解析,強(qiáng)化模型理解任務(wù)求解邏輯;全量參數(shù)更新,追求更好的生成效果。


          第十七重 Luotuo-Chinese-LLM

          • 【LLMs 入門實(shí)戰(zhàn) 】 Luotuo-Chinese-LLM 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:

            • Github 代碼:https://github.com/LC1332/Luotuo-Chinese-LLM

            • 模型:

            • 介紹:囊括了一系列中文大語言模型開源項(xiàng)目,包含了一系列基于已有開源模型(ChatGLM, MOSS, LLaMA)進(jìn)行二次微調(diào)的語言模型,指令微調(diào)數(shù)據(jù)集等。


          第十八重 Linly

          • 【LLMs 入門實(shí)戰(zhàn) 】 Linly 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:

            • Github 代碼:https://github.com/CVI-SZU/Linly

            • 模型:

            • 介紹:提供中文對話模型 Linly-ChatFlow 、中文基礎(chǔ)模型 Linly-Chinese-LLaMA 及其訓(xùn)練數(shù)據(jù)。中文基礎(chǔ)模型以 LLaMA 為底座,利用中文和中英平行增量預(yù)訓(xùn)練。項(xiàng)目匯總了目前公開的多語言指令數(shù)據(jù),對中文模型進(jìn)行了大規(guī)模指令跟隨訓(xùn)練,實(shí)現(xiàn)了 Linly-ChatFlow 對話模型。


          第十九重 ChatYuan

          • 【LLMs 入門實(shí)戰(zhàn) 】 ChatYuan 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:

            • Github 代碼:https://github.com/clue-ai/ChatYuan

            • 介紹:元語智能發(fā)布的一系列支持中英雙語的功能型對話語言大模型,在微調(diào)數(shù)據(jù)、人類反饋強(qiáng)化學(xué)習(xí)、思維鏈等方面進(jìn)行了優(yōu)化。


          第二十重 CPM-Bee

          • 【LLMs 入門實(shí)戰(zhàn) 】 CPM-Bee 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:

            • Github 代碼:https://github.com/OpenBMB/CPM-Bee

            • 模型:

            • 介紹:一個完全開源、允許商用的百億參數(shù)中英文基座模型。它采用Transformer自回歸架構(gòu)(auto-regressive),在超萬億(trillion)高質(zhì)量語料上進(jìn)行預(yù)訓(xùn)練,擁有強(qiáng)大的基礎(chǔ)能力。開發(fā)者和研究者可以在CPM-Bee基座模型的基礎(chǔ)上在各類場景進(jìn)行適配來以創(chuàng)建特定領(lǐng)域的應(yīng)用模型。


          第二十一重 TigerBot

          • 【LLMs 入門實(shí)戰(zhàn) 】 TigerBot 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:

            • Github 代碼:https://github.com/TigerResearch/TigerBot

            • 模型:

            • 介紹:一個多語言多任務(wù)的大規(guī)模語言模型(LLM),開源了包括模型:TigerBot-7B, TigerBot-7B-base,TigerBot-180B,基本訓(xùn)練和推理代碼,100G預(yù)訓(xùn)練數(shù)據(jù),涵蓋金融、法律、百科的領(lǐng)域數(shù)據(jù)以及API等。


          第二十二重 書生·浦語

          • 【LLMs 入門實(shí)戰(zhàn) 】 書生·浦語 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:

            • Github 代碼:https://github.com/InternLM/InternLM-techreport

            • 模型:

            • 介紹:商湯科技、上海AI實(shí)驗(yàn)室聯(lián)合香港中文大學(xué)、復(fù)旦大學(xué)和上海交通大學(xué)發(fā)布千億級參數(shù)大語言模型“書生·浦語”(InternLM)。據(jù)悉,“書生·浦語”具有1040億參數(shù),基于“包含1.6萬億token的多語種高質(zhì)量數(shù)據(jù)集”訓(xùn)練而成。


          第二十三重 Aquila

          • 【LLMs 入門實(shí)戰(zhàn) 】 Aquila 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:

            • Github 代碼: https://github.com/FlagAI-Open/FlagAI/tree/master/examples/Aquila

            • 模型:

            • 介紹:由智源研究院發(fā)布,Aquila語言大模型在技術(shù)上繼承了GPT-3、LLaMA等的架構(gòu)設(shè)計(jì)優(yōu)點(diǎn),替換了一批更高效的底層算子實(shí)現(xiàn)、重新設(shè)計(jì)實(shí)現(xiàn)了中英雙語的tokenizer,升級了BMTrain并行訓(xùn)練方法,是在中英文高質(zhì)量語料基礎(chǔ)上從0開始訓(xùn)練的,通過數(shù)據(jù)質(zhì)量的控制、多種訓(xùn)練的優(yōu)化方法,實(shí)現(xiàn)在更小的數(shù)據(jù)集、更短的訓(xùn)練時間,獲得比其它開源模型更優(yōu)的性能。也是首個支持中英雙語知識、支持商用許可協(xié)議、符合國內(nèi)數(shù)據(jù)合規(guī)需要的大規(guī)模開源語言模型。


          第一重 金融領(lǐng)域

          • 【LLMs 入門實(shí)戰(zhàn) —— 十九】 聚寶盆(Cornucopia) 模型學(xué)習(xí)與實(shí)戰(zhàn)

            • 聚寶盆(Cornucopia) 開源了經(jīng)過中文金融知識指令精調(diào)/指令微調(diào)(Instruct-tuning) 的LLaMA-7B模型。通過中文金融公開數(shù)據(jù)+爬取的金融數(shù)據(jù)構(gòu)建指令數(shù)據(jù)集,并在此基礎(chǔ)上對LLaMA進(jìn)行了指令微調(diào),提高了 LLaMA 在金融領(lǐng)域的問答效果。

            • github: jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese

          • 【LLMs 入門實(shí)戰(zhàn) 】 BBT-FinCUGE-Applications 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:https://github.com/ssymmetry/BBT-FinCUGE-Applications

            • 介紹:開源了中文金融領(lǐng)域開源語料庫BBT-FinCorpus,中文金融領(lǐng)域知識增強(qiáng)型預(yù)訓(xùn)練語言模型BBT-FinT5及中文金融領(lǐng)域自然語言處理評測基準(zhǔn)CFLEB。

          • 【LLMs 入門實(shí)戰(zhàn) 】 XuanYuan(軒轅) 學(xué)習(xí)與實(shí)戰(zhàn):首個千億級中文金融對話模型

            • 論文名稱:

            • 論文地址:https://huggingface.co/xyz-nlp/XuanYuan2.0

            • 介紹:軒轅是國內(nèi)首個開源的千億級中文對話大模型,同時也是首個針對中文金融領(lǐng)域優(yōu)化的千億級開源對話大模型。軒轅在BLOOM-176B的基礎(chǔ)上針對中文通用領(lǐng)域和金融領(lǐng)域進(jìn)行了針對性的預(yù)訓(xùn)練與微調(diào),它不僅可以應(yīng)對通用領(lǐng)域的問題,也可以解答與金融相關(guān)的各類問題,為用戶提供準(zhǔn)確、全面的金融信息和建議。


          第二重 醫(yī)療領(lǐng)域

          • 【LLMs 入門實(shí)戰(zhàn) —— 二十九 】HuatuoGPT (華佗GPT) 學(xué)習(xí)與實(shí)戰(zhàn)

            • HuatuoGPT (華佗GPT) 知識庫是一個在龐大的中國醫(yī)學(xué)語料庫上訓(xùn)練的大型語言模型。HuatuoGPT (華佗GPT) 的目標(biāo)是為醫(yī)療咨詢場景構(gòu)建一個更專業(yè)的“ChatGPT”。

            • 益增長的在線和醫(yī)院快速醫(yī)療咨詢需求 與 醫(yī)生的時間和精力 矛盾問題

            • 目前并沒有 開源而且高質(zhì)量的 可用于訓(xùn)練 medical LLMs,所以 為 訓(xùn)練 medical LLMs 而構(gòu)建 high-quality instruction training data 至關(guān)重要;

            • medical LLMs 診斷能力需要進(jìn)行 徹底評估和測試,避免 medical LLMs 誤診問題;

            • HuatuoGPT (華佗GPT), Towards Taming Language Models To Be a Doctor.

            • 論文地址:https://arxiv.org/pdf/2305.15075.pdf

            • Github 代碼:https://github.com/FreedomIntelligence/HuatuoGPT

            • 模型:https://huggingface.co/FreedomIntelligence/HuatuoGPT-7b-v1

            • HuatuoGPT 體驗(yàn)網(wǎng)站:https://www.huatuogpt.cn/

            • HuatuoGPT (華佗GPT) 監(jiān)督微調(diào)(SFT):HuatuoGPT-sft-data-v1

            • 動機(jī):

            • 介紹:

          • 【LLMs 入門實(shí)戰(zhàn) 】DoctorGLM 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:https://github.com/xionghonglin/DoctorGLM

            • 介紹:基于 ChatGLM-6B的中文問診模型,通過中文醫(yī)療對話數(shù)據(jù)集進(jìn)行微調(diào),實(shí)現(xiàn)了包括lora、p-tuningv2等微調(diào)及部署

          • 【LLMs 入門實(shí)戰(zhàn) 】 BenTsao 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:https://github.com/SCIR-HI/Huatuo-Llama-Med-Chinese

            • 介紹:開源了經(jīng)過中文醫(yī)學(xué)指令精調(diào)/指令微調(diào)(Instruct-tuning) 的LLaMA-7B模型。通過醫(yī)學(xué)知識圖譜和GPT3.5 API構(gòu)建了中文醫(yī)學(xué)指令數(shù)據(jù)集,并在此基礎(chǔ)上對LLaMA進(jìn)行了指令微調(diào),提高了LLaMA在醫(yī)療領(lǐng)域的問答效果。

          • 【LLMs 入門實(shí)戰(zhàn) 】 BianQue 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:https://github.com/scutcyr/BianQue

            • 介紹:一個經(jīng)過指令與多輪問詢對話聯(lián)合微調(diào)的醫(yī)療對話大模型,基于ClueAI/ChatYuan-large-v2作為底座,使用中文醫(yī)療問答指令與多輪問詢對話混合數(shù)據(jù)集進(jìn)行微調(diào)。

          • 【LLMs 入門實(shí)戰(zhàn) 】 Med-ChatGLM 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:https://github.com/SCIR-HI/Med-ChatGLM

            • 介紹:基于中文醫(yī)學(xué)知識的ChatGLM模型微調(diào),微調(diào)數(shù)據(jù)與BenTsao相同。

          • 【LLMs 入門實(shí)戰(zhàn) 】 QiZhenGPT 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:https://github.com/CMKRG/QiZhenGPT

            • 介紹:該項(xiàng)目利用啟真醫(yī)學(xué)知識庫構(gòu)建的中文醫(yī)學(xué)指令數(shù)據(jù)集,并基于此在LLaMA-7B模型上進(jìn)行指令精調(diào),大幅提高了模型在中文醫(yī)療場景下效果,首先針對藥品知識問答發(fā)布了評測數(shù)據(jù)集,后續(xù)計(jì)劃優(yōu)化疾病、手術(shù)、檢驗(yàn)等方面的問答效果,并針對醫(yī)患問答、病歷自動生成等應(yīng)用展開拓展。

          • 【LLMs 入門實(shí)戰(zhàn) 】 ChatMed 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:https://github.com/michael-wzhu/ChatMed

            • 介紹:該項(xiàng)目推出ChatMed系列中文醫(yī)療大規(guī)模語言模型,模型主干為LlaMA-7b并采用LoRA微調(diào),具體包括ChatMed-Consult : 基于中文醫(yī)療在線問診數(shù)據(jù)集ChatMed_Consult_Dataset的50w+在線問診+ChatGPT回復(fù)作為訓(xùn)練集;ChatMed-TCM : 基于中醫(yī)藥指令數(shù)據(jù)集ChatMed_TCM_Dataset,以開源的中醫(yī)藥知識圖譜為基礎(chǔ),采用以實(shí)體為中心的自指令方法(entity-centric self-instruct),調(diào)用ChatGPT得到2.6w+的圍繞中醫(yī)藥的指令數(shù)據(jù)訓(xùn)練得到。

          • 【LLMs 入門實(shí)戰(zhàn) 】 XrayGLM 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:https://github.com/WangRongsheng/XrayGLM

            • 介紹:該項(xiàng)目為促進(jìn)中文領(lǐng)域醫(yī)學(xué)多模態(tài)大模型的研究發(fā)展,發(fā)布了XrayGLM數(shù)據(jù)集及模型,其在醫(yī)學(xué)影像診斷和多輪交互對話上顯示出了非凡的潛力。


          第三重 法律領(lǐng)域

          • 【LLMs 入門實(shí)戰(zhàn) 】 LaWGPT 學(xué)習(xí)與實(shí)戰(zhàn):基于中文法律知識的大語言模型

            • 論文名稱:

            • 論文地址:https://github.com/pengxiao-song/LaWGPT

            • 介紹:該系列模型在通用中文基座模型(如 Chinese-LLaMA、ChatGLM 等)的基礎(chǔ)上擴(kuò)充法律領(lǐng)域?qū)S性~表、大規(guī)模中文法律語料預(yù)訓(xùn)練,增強(qiáng)了大模型在法律領(lǐng)域的基礎(chǔ)語義理解能力。在此基礎(chǔ)上,構(gòu)造法律領(lǐng)域?qū)υ拞柎饠?shù)據(jù)集、中國司法考試數(shù)據(jù)集進(jìn)行指令精調(diào),提升了模型對法律內(nèi)容的理解和執(zhí)行能力。

          • 【LLMs 入門實(shí)戰(zhàn) 】 LexiLaw 學(xué)習(xí)與實(shí)戰(zhàn):中文法律大模型

            • 論文名稱:

            • 論文地址:https://github.com/CSHaitao/LexiLaw

            • 介紹:LexiLaw 是一個基于 ChatGLM-6B微調(diào)的中文法律大模型,通過在法律領(lǐng)域的數(shù)據(jù)集上進(jìn)行微調(diào)。該模型旨在為法律從業(yè)者、學(xué)生和普通用戶提供準(zhǔn)確、可靠的法律咨詢服務(wù),包括具體法律問題的咨詢,還是對法律條款、案例解析、法規(guī)解讀等方面的查詢。

          • 【LLMs 入門實(shí)戰(zhàn) 】 Lawyer LLaMA 學(xué)習(xí)與實(shí)戰(zhàn):中文法律LLaMA

            • 論文名稱:

            • 論文地址:https://github.com/AndrewZhe/lawyer-llama

            • 介紹:開源了一系列法律領(lǐng)域的指令微調(diào)數(shù)據(jù)和基于LLaMA訓(xùn)練的中文法律大模型的參數(shù)。Lawyer LLaMA 首先在大規(guī)模法律語料上進(jìn)行了continual pretraining。在此基礎(chǔ)上,借助ChatGPT收集了一批對中國國家統(tǒng)一法律職業(yè)資格考試客觀題(以下簡稱法考)的分析和對法律咨詢的回答,利用收集到的數(shù)據(jù)對模型進(jìn)行指令微調(diào),讓模型習(xí)得將法律知識應(yīng)用到具體場景中的能力。


          第四重 教育領(lǐng)域

          • 【LLMs 入門實(shí)戰(zhàn) 】 桃李(Taoli) 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:https://github.com/blcuicall/taoli

            • 介紹:一個在國際中文教育領(lǐng)域數(shù)據(jù)上進(jìn)行了額外訓(xùn)練的模型。項(xiàng)目基于目前國際中文教育領(lǐng)域流通的500余冊國際中文教育教材與教輔書、漢語水平考試試題以及漢語學(xué)習(xí)者詞典等,構(gòu)建了國際中文教育資源庫,構(gòu)造了共計(jì) 88000 條的高質(zhì)量國際中文教育問答數(shù)據(jù)集,并利用收集到的數(shù)據(jù)對模型進(jìn)行指令微調(diào),讓模型習(xí)得將知識應(yīng)用到具體場景中的能力。


          第五重 文化領(lǐng)域

          • 【LLMs 入門實(shí)戰(zhàn) 】 Firefly 學(xué)習(xí)與實(shí)戰(zhàn)

            • 論文名稱:

            • 論文地址:https://github.com/yangjianxin1/Firefly

            • 介紹:中文對話式大語言模型,構(gòu)造了許多與中華文化相關(guān)的數(shù)據(jù),以提升模型這方面的表現(xiàn),如對聯(lián)、作詩、文言文翻譯、散文、金庸小說等。


          第六重 Coding

          • 【LLMs 入門實(shí)戰(zhàn)】 CodeGeeX2-6B 學(xué)習(xí)與實(shí)戰(zhàn)

            • DeepKE-LLM鏈接:

            • OpenKG地址:

            • Github 地址:https://github.com/THUDM/CodeGeeX2

            • 介紹:CodeGeeX2 是多語言代碼生成模型 CodeGeeX 的第二代模型,基于 ChatGLM2 架構(gòu)注入代碼實(shí)現(xiàn)。得益于 ChatGLM2 的更優(yōu)性能,CodeGeeX2-6B 在多項(xiàng)指標(biāo)上取得了較大的性能提升。與 150 億參數(shù)的 StarCoder-15B 相比,CodeGeeX2-6B 憑借 60 億參數(shù)便具備了近 10% 的優(yōu)勢。


          瀏覽 34
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  亚洲草逼图 | 熟睡侵犯の奶水授乳在线 | 成人影音先锋 | 黃色一级A一片人与 | 国产夜色精品一区二区AV |