RAG微調Llama 3竟超越GPT-4!英偉達GaTech華人學者提出RankRAG框架
共 5945字,需瀏覽 12分鐘
·
2024-07-09 12:50
新智元報道
新智元報道
【新智元導讀】來自佐治亞理工學院和英偉達的兩名華人學者帶隊提出了名為RankRAG的微調框架,簡化了原本需要多個模型的復雜的RAG流水線,用微調的方法交給同一個LLM完成,結果同時實現(xiàn)了模型在RAG任務上的性能提升。
RankRAG微調框架
第一階段的SFT數(shù)據(jù):用于維持指令跟隨能力
上下文豐富的QA數(shù)據(jù):涵蓋了DROP、NarrativeQA、Quoref、ROPES、NewsQA、TAT-QA等數(shù)據(jù)集,每條數(shù)據(jù)包含問題、黃金上下文(golden context)和答案
會話QA數(shù)據(jù)集:如Synthetic Conversation和HumanAnnotatedConvQA,同時包括對話內容以及一份背景文檔
檢索增強的QA數(shù)據(jù):不僅包括SQuAD和WebQuestions中的問題和答案,還用BM25將黃金上下文和檢索到的top結果組合起來,確保每條數(shù)據(jù)都有5個上下文,其中有些上下文可能不包括問題答案,甚至是hard-negative,這是為了重點提高LLM對不相關上下文的魯棒性
上下文排名數(shù)據(jù):使用流行的MS Marco語義相關性數(shù)據(jù)集,將其中的黃金樣本視為相關的查詢-段落對 (??,??+),BM25挖掘的hard negtive (??,???)則被視為不相關,讓LLM對這些樣本的相關性進行二元分類(True或False)
檢索增強的排名數(shù)據(jù):同樣使用QA數(shù)據(jù)集SQuAD和WebQuestions,以及BM25檢索到的上下文,訓練LLM的對相關性進行排名的能力
實驗
消融研究
特定領域的RAG基準
排名模塊
案例研究
作者介紹
評論
圖片
表情
