BBT-2通用大語言模型
BBT-2 是包含 120 億參數(shù)的通用大語言模型,在 BBT-2 的基礎(chǔ)上訓練出了代碼,金融,文生圖等專業(yè)模型。
基于 BBT-2 的系列模型包括:
-
BBT-2-12B-Text:120 億參數(shù)的中文基礎(chǔ)模型
-
BBT-2.5-13B-Text: 130 億參數(shù)的中文+英文雙語基礎(chǔ)模型
-
BBT-2-12B-TC-001-SFT 經(jīng)過指令微調(diào)的代碼模型,可以進行對話
-
BBT-2-12B-TF-001 在 120 億模型上訓練的金融模型,用于解決金融領(lǐng)域任務(wù)
-
BBT-2-12B-Fig:文生圖模型
-
BBT-2-12B-Science 科學論文模型
評論
圖片
表情
