<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          DeepMind又放大招!用大型語言模型實現(xiàn)可信推理,距離模型可解釋...

          共 2157字,需瀏覽 5分鐘

           ·

          2022-09-08 11:48

          5349689fcc03767d62e719ae4310d761.webp 大數(shù)據(jù)文摘授權轉載自AI前線 整理:核子可樂、冬梅
          可解釋性,已經(jīng)成為當今機器學習研究與開發(fā)領域最緊迫的難題之一。盡管目前的大規(guī)模語言模型(LM)已經(jīng)展現(xiàn)出令人印象深刻的問答能力,但其固有的不透明性卻導致人們無法理解模型如何得出最終答案,因此用戶難以論證答案合理性、也不易發(fā)現(xiàn)答案中的潛在錯誤。
          DeepMind 研究團隊在最新論文《使用大型語言模型實現(xiàn)可信推理》(Faithful Reasoning Using Large Language Models)中解決了這個問題。論文提出一套前向鏈選擇推理模型,能夠執(zhí)行忠實推理并提供有效的推理跟蹤,用以提高推理質量并幫助用戶檢查 / 驗證最終答案。
          958f3bf153f4c8dd8b0dab8ce6697596.webp
          論文地址: https://www.researchhub.com/paper/1272848/faithful-reasoning-using-large-language-models
          如何利用因果邏輯原理提高推理質量?
          為了突破機器學習可解釋性這道難關,DeepMind 研究團隊在論文中展示 了如何通過因果結構反映問題的潛在邏輯結構,借此過程保證語言模型忠實執(zhí)行多步推理。 研究團隊的方法會將多個推理步驟聯(lián)系起來共同起效,其中各個步驟均會調用兩套經(jīng)過微調的語言模型: 其一用于選擇,其二用于推理,借此產(chǎn)生有效的推理跟蹤。
          該方法還會對推理軌跡空間執(zhí)行定向搜索,借此提高推理質量。
          論文中提出的方法基于這一基本思想:如果給定問題的潛在邏輯結構,可以通過因果結構來反映,則語言模型可以忠實執(zhí)行多步推理。為了實現(xiàn)這個目標,DeepMind 團隊開發(fā)出選擇推理(SI)作為系統(tǒng)主干。作為一種新穎架構,其中包含兩套經(jīng)過微調的語言模型,一套用于選擇、一套用于推理。
          48997c6f4e9bbbf8789c5a69130b75a8.webp
          分步前向推理主干會將各個推理步驟拆分為兩個:
          1)給定一個問題,由選擇模型首先從上下文中選擇一組語句;
          2)推理模型隨后從選擇中計算一個語句,預測其含義(推理)
          在推理步驟結束時,該推理會被添加至上下文內。通過迭代整個選擇與推理過程,模型即可產(chǎn)生推理軌跡,而最終推理將用于回答問題。
          beb91a28bdf46d169eff2638ba3d3ec4.webp
          為了讓模型能夠確定何時停止推理,該團隊還引入了一個兩段式 halter。
          它會利用微調的語言模型來預測該模型能否在當前推理之下回答給定問題。
          如果模型無法以高置信度回答問題,則執(zhí)行另一次選擇推理迭代;如果 halter 的輸出就是答案,則終止此過程并返回答案。假設選擇推理循環(huán)持續(xù)到預先指定的迭代次數(shù),但仍未得出答案,則系統(tǒng)不會直接給出最佳猜測、而是返回 “未知”。
          研究人員觀察到,在刪除掉模型認為無法忠實回答的問題之后,模型性能得到顯著提高。他們相信,這種方法有助于提高模型在以精確度(而非召回率)為優(yōu)先的現(xiàn)實世界中的可信度與安全性。
          e8bf4fb65ef37e1debda253b52ecabb9.webp19b06d62dcc8637998e0ddba601c5d1b.webp
          實際效果
          在這次實證研究中,該團隊將自己的選擇推理系統(tǒng)與 Proof Writer(PW)和 EntailmentBankQA(EB)數(shù)據(jù)集上的基準模型進行了比較。他們提出的模型在 PW 和 EB 上分別實現(xiàn)了 88.1% 和 78.1% 的最終答案準確率,大大優(yōu)于基準模型。
          這項工作表明 DeepMind 提出的新方法確實能在不犧牲模型性能的前提下,通過多步推理對問題做出忠實回答。雖然該研究目前只側重于給定上下文中的多步驟推理,但該團隊已經(jīng)計劃在未來的工作中利用檢索進一步充實上下文信息。
          從實際性能來看,盡管存在“只能執(zhí)行可信推理”的限制,該模型的實際表現(xiàn)仍然非常出色。考慮到如果一項技術要想安全普及、為大眾所接受,就必須能夠通過審計檢驗,此次研究可能代表語言模型正向著可解釋性邁出重要一步。
          原文鏈接: https://medium.com/syncedreview/deepminds-selection-inference-language-model-system-generates-humanly-interpretable-reasoning-8707817ad098 https://www.researchhub.com/paper/1272848/faithful-reasoning-using-large-language-models

          7f3d351451920a8bf7eb24568565de1a.webp點「在看」的人都變好看了哦!
          瀏覽 91
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  久热久操| 丁香五月在线观看 | 国产乱婬A∨片免费视频牛牛 | 中文字幕日韩乱伦 | 午夜精品久久久久久久久久久久久蜜桃 |