<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          神經(jīng)符號(hào)學(xué)習(xí): 神經(jīng)網(wǎng)絡(luò)+邏輯推理

          共 4512字,需瀏覽 10分鐘

           ·

          2024-04-12 00:20

          1  前言 神經(jīng)符號(hào)學(xué)習(xí),目標(biāo)是結(jié)合深度神經(jīng)網(wǎng)絡(luò)(DNNs)的感知能力和符號(hào)推理系統(tǒng)的推理能力。旨在結(jié)合神經(jīng)感知與符號(hào)邏輯,但目前的研究僅將它們串聯(lián)并分別優(yōu)化,未能充分利用它們之間的相互增強(qiáng)信息。 本文提出了一種名為DeepLogic的深度學(xué)習(xí)框架,用于解決具有邏輯推理和神經(jīng)感知雙重任務(wù)的問題。本文 貢獻(xiàn)如下
          • 提出具有理論收斂保證的DeepLogic框架,該框架進(jìn)行神經(jīng)感知和邏輯推理的聯(lián)合學(xué)習(xí),使它們可以相互增強(qiáng),以提高神經(jīng)符號(hào)推理的性能和可解釋性。

          • 提出源自一階邏輯的深度邏輯模塊(DLM),能夠從基本邏輯運(yùn)算符構(gòu)造和學(xué)習(xí)邏輯公式。

          • 提出了深度邏輯優(yōu)化(DLO)算法,通過理論上量化神經(jīng)感知和邏輯推理之間的相互監(jiān)督信號(hào)來保證神經(jīng)感知和邏輯推理的聯(lián)合學(xué)習(xí)。

          2  DeepLogic框架 神經(jīng)符號(hào)學(xué)習(xí)研究同時(shí)感知和推理的問題,其輸入是語義數(shù)據(jù),輸出是未知的復(fù)雜關(guān)系。為避免任務(wù)分解,不應(yīng)給出要學(xué)習(xí)的語義輸入的符號(hào)屬性。DeepLogic框架從數(shù)學(xué)角度描述了問題表述和建模,并提出了用于聯(lián)合學(xué)習(xí)神經(jīng)感知和符號(hào)推理的深度&邏輯優(yōu)化(DLO)算法。 通過我們提出的DeepLogic框架,我們可以通過1位監(jiān)督信號(hào)來共同學(xué)習(xí)感知能力和邏輯公式,指示語義輸入是否滿足給定的公式,如圖1所示。 前向傳遞(頂部)從語義輸入x通過中間符號(hào)屬性z到最終演繹標(biāo)簽y進(jìn)行順序處理。 例如,推理一下123的關(guān)系。首先,系統(tǒng)通過神經(jīng)感知模型將這些圖像識(shí)別為符號(hào):?、?和?。然后,邏輯推理模型對?、?、?之間的關(guān)系進(jìn)行推理,得出滿足邏輯公式:“?加?等于?”的結(jié)論。在后向傳遞中(左下/右下),感知模型θ和符號(hào)系統(tǒng)φ的參數(shù)分別以另一個(gè)作為監(jiān)督進(jìn)行迭代優(yōu)化。 fef01ef47bd7374522b875fc18264b6a.webp圖1 DeepLogic框架 3  深度邏輯模塊(DLM)

          深度邏輯模塊(DLM),能夠?qū)ι窠?jīng)感知和邏輯推理進(jìn)行建模。特別是,擬議的DLM具有以下優(yōu)點(diǎn):
          • DLM不依賴外部知識(shí),易于實(shí)現(xiàn);

          • DLM通過由淺入深的邏輯層堆疊,自適應(yīng)適應(yīng)各種場景;

          • DLM能夠利用監(jiān)督信息來優(yōu)化pθ和pφ,保證神經(jīng)感知和邏輯推理的聯(lián)合學(xué)習(xí)。

          1a1d356681808dd5bdbb1b418ae7c871.webp

          圖2(a)單個(gè)邏輯層如方程式10中定義;(b)深度邏輯模塊(DLM)的說明 在圖2a中,不同的顏色表示不同的操作符,黑色線表示被選擇的構(gòu)造S(o)的符號(hào),灰色線表示未被選擇的符號(hào)。在訓(xùn)練階段,根據(jù)Ωk選擇那些活躍節(jié)點(diǎn),形成邏輯樹;在測試過程中,選擇最優(yōu)路徑來形成最能描述底層邏輯的新邏輯樹,如圖2b)所示。 4  深度和邏輯優(yōu)化(DLO)

          深度邏輯模塊(DLM),是一個(gè)基于FOL的通用公式學(xué)習(xí)器,能夠?qū)W習(xí)符號(hào)之間的符號(hào)關(guān)系。在本節(jié)中,我們將介紹DLM與深度神經(jīng)網(wǎng)絡(luò)(DNN)如何通過吸收語義輸入并推理其符號(hào)關(guān)系來處理神經(jīng)符號(hào)任務(wù)。我們還詳細(xì)介紹了所提出的深度邏輯優(yōu)化(DLO)算法,以聯(lián)合優(yōu)化DLMDNN 8d49035edf9ca7932c751f3202125799.webp圖 3aDeepLogic 從 pθ 到 Δφ 的前向傳播。bDeepLogic 使用 BPTL 算法的反向傳播算法1)。cDeeplogic 公式的幾種情況說明:I“AndEqZ1,Z2,EqZ2, Z3”的公式;II兩層定義同一個(gè)術(shù)語“AddZ1,Z2”的情況黑線和灰線IIIIV公式的病態(tài)/自沖突情況;III中,方程始終為“True”,而在IV中,BPTL算法會(huì)在中間節(jié)點(diǎn)遇到自沖突。 5  實(shí)驗(yàn)

          在本節(jié)中,們在三個(gè)邏輯推理數(shù)據(jù)集上評(píng)估所提出的DeepLogic框架的性能、收斂性、穩(wěn)定性和泛化能力。第一個(gè)和第二個(gè)數(shù)據(jù)集是根據(jù)具有多個(gè)屬性和不同規(guī)則的MNIST手動(dòng)構(gòu)建的,而第三個(gè)數(shù)據(jù)集是廣泛使用的推理數(shù)據(jù)集,旨在評(píng)估機(jī)器的推理能力。 5.1  MNIST-ADD MNIST-ADD是一個(gè)簡單的個(gè)位數(shù)加法數(shù)據(jù)集。任務(wù)是在給定三個(gè)MNIST圖像和1位“True/False”標(biāo)簽的情況下學(xué)習(xí)“個(gè)位數(shù)加法”公式。該數(shù)據(jù)集包括20,000個(gè)用于訓(xùn)練的實(shí)例和20,000個(gè)用于測試的實(shí)例。我們使用不同的分割策略將數(shù)據(jù)集進(jìn)一步分割為α和β分割。在β分割中,測試集具有與訓(xùn)練集中的實(shí)例不同的附加實(shí)例。這種設(shè)置也稱為“訓(xùn)練/測試分布偏移”,這對于神經(jīng)網(wǎng)絡(luò)來說很難解決。 結(jié)果總結(jié)如表1 MNSIT-ADd-αMNIST-ADD-β數(shù)據(jù)集上,DNN模型過度擬合訓(xùn)練集。盡管嘗試使用改變模型大小和dropout等方法,但效果不佳。DNN模型在邏輯準(zhǔn)確性方面表現(xiàn)較差,尤其是在處理不平衡的β分裂時(shí)。與ABL模型相比,我們的模型更加靈活,無需Prolog程序即可達(dá)到更高的精度。最后,通過邏輯的反向傳播有助于為感知模型提供監(jiān)督。

          表1:MNIST-ADD數(shù)據(jù)集上的準(zhǔn)確性,其中EXTRA SUP表示模型是否使用額外的感知監(jiān)督或僅一位邏輯監(jiān)督進(jìn)行訓(xùn)練,EXTRA TOOL表示模型是否使用任何額外的工具

          6fedbbd6c95ea0fcf20d58e1f0b723a3.webp

          數(shù)據(jù)效率。 如圖4(上)所示,DeepLogic在所有設(shè)置上都優(yōu)于其DNN對應(yīng)產(chǎn)品,僅用約100個(gè)訓(xùn)練圖像就收斂到了95%以上的準(zhǔn)確率,這是因?yàn)樯窠?jīng)符號(hào)學(xué)習(xí)實(shí)際上解開了神經(jīng)感知和邏輯推理的過程,因此用相當(dāng)多的圖像來訓(xùn)練感知模型就足夠了。 3744f1847f935b9b010ef719f3008a73.webp

          4  上圖: MNIST-ADD- α上使用不同尺度的訓(xùn)練圖像測試準(zhǔn)確性, DL DeepLogic 的縮寫; 下圖: 測試不同模型隱藏大小以及 RN DL 的不同 dropout 率的準(zhǔn)確性。

          預(yù)訓(xùn)練的必要性。 預(yù)訓(xùn)練對于系統(tǒng)收斂至關(guān)重要。實(shí)驗(yàn)證明(圖5 DeepLogic僅需6批預(yù)訓(xùn)練即可收斂,且預(yù)訓(xùn)練成本可降低。更高的預(yù)訓(xùn)練精度能提高邏輯學(xué)習(xí)的收斂速度,尤其在多規(guī)則和多屬性場景中。 324ccac6f72baf707e0fc8809f19311c.webp

          5  上 MNIST-ADD- α數(shù)據(jù)集上預(yù)訓(xùn)練  p θ時(shí)的 PERCEPTION 準(zhǔn)確度; 中圖: MNIST-ADD- α數(shù)據(jù)集上使用不同批次的預(yù)訓(xùn) 練數(shù)據(jù)訓(xùn)練 DeepLogic- LOGIC 準(zhǔn)確性; 下圖: MNIST-ADD- α數(shù)據(jù)集上使用不同批次的預(yù) 訓(xùn)練數(shù)據(jù)訓(xùn)練 DeepLogic LOGIC 準(zhǔn)確 性。 主要發(fā)現(xiàn)是: 1 )更多的預(yù)訓(xùn)練批次確保了更好的準(zhǔn)確性; 2 DeepLogic 最終收斂只需要很少 的預(yù)訓(xùn)練。

          模型穩(wěn)定性。 此任務(wù)采用兩個(gè)術(shù)語層和一個(gè)公式層來學(xué)習(xí)特定邏輯,但實(shí)際應(yīng)用可能受限。 實(shí)驗(yàn)表明(表3 ,系統(tǒng)在不同設(shè)置下學(xué)習(xí)效果不同,模型收斂容易,對不同初始化具有魯棒性。

          表3 MNIST-ADD數(shù)據(jù)集中不同設(shè)置下學(xué)習(xí)的典型公式。M表示術(shù)語層數(shù),N表示公式層數(shù)。最后一列是5次隨機(jī)試驗(yàn)中成功收斂的百分比。

          0198419c5075d2d3adaedbd682155430.webp

          5.2  C-MNIST-RULE

          C-MNIST-RULE是MNIST-ADD的擴(kuò)展,其中包含一個(gè)額外的屬性“顏色”和兩個(gè)額外的公式“級(jí)數(shù)”和“互斥”。請注意,我們對MNIST-ADD和C-MNIST-RULE使用相同的DeepLogic模型,唯一的區(qū)別在于輸出公式Δφ的數(shù)量,在C-MNIST-RULE中為1,而在C-MNIST-RULE中為3。DeepLogic能夠同時(shí)學(xué)習(xí)多個(gè)公式和感知。

          C-MNIST-RULE包含多個(gè)規(guī)則和屬性,其中我們對MNIST圖像進(jìn)行著色以添加顏色屬性,并根據(jù)Raven的漸進(jìn)矩陣(RPM)實(shí)現(xiàn)三個(gè)規(guī)則。與MNIST-ADD類似,C-MNISTRULE數(shù)據(jù)集包含20,000個(gè)訓(xùn)練實(shí)例和20,000個(gè)測試實(shí)例。

          表2展示了不同模型在C-MNIST-RULE上的準(zhǔn)確性。其中f表示模型使用額外的符號(hào)注釋進(jìn)行訓(xùn)練,w表示不涉及額外的符號(hào)注釋。DeepLogic?不進(jìn)一步訓(xùn)練pθ。DeepLogic和DeepLogic?均經(jīng)過10個(gè)批次的預(yù)訓(xùn)練。LOGIC是最終預(yù)測y的準(zhǔn)確性,而PERCEPTION是預(yù)測隱藏符號(hào)z的準(zhǔn)確性。

          表2 不同模型在C-MNIST-RULE的準(zhǔn)確性

          ddd1f2d62358a9a8aa338bfba5ed6811.webp

          可以觀察到:
          • CMNIST-RULE 上沒有符號(hào)注釋的結(jié)果相比,純基于 DNN 的方法性能較差。

          • 基于純DNN的方法在額外符號(hào)注釋的幫助下收斂,這也與[15]一致,其中純DNN甚至ResNet無法比沒有額外注釋的隨機(jī)猜測表現(xiàn)得更好。
          6展示了模型在C-MNIST-RULE數(shù)據(jù)集上的學(xué)習(xí)曲線。

          9cfe44e2d43c013b87aa6fb1a87ea551.webp

          圖6 三個(gè)公式的平均獎(jiǎng)勵(lì)和DeepLogic在C-MNIST-RULE上的兩個(gè)屬性的準(zhǔn)確性 可以發(fā)現(xiàn):
          • 公式1收斂速度快。

          • 收斂公式1監(jiān)督Color屬性收斂。

          • 融合的Color屬性進(jìn)一步促進(jìn)了公式2和其他公式的學(xué)習(xí)。
          7展示了C-MNISTRULE數(shù)據(jù)集的幾個(gè)實(shí)例以及邏輯反向傳播,并顯示了最終學(xué)習(xí)的公式。

          7b7c86a23353c2db3d614c2cb0e7ba43.webp

          圖7 左:來自C-MNIST-RULE數(shù)據(jù)集的數(shù)據(jù)插圖,其中數(shù)字屬性遵循ADD規(guī)則,而顏色屬性遵循互斥規(guī)則;右:數(shù)字屬性和Add(規(guī)則)的訓(xùn)練/測試圖示。(a)和(b)分別說明了使用Eq.22和Eq.16學(xué)習(xí)pφ和pθ的過程;(c)和(d)分別是由于感知錯(cuò)誤(非最優(yōu)pθ)和邏輯結(jié)構(gòu)錯(cuò)誤(非最優(yōu)pφ)導(dǎo)致的不成功案例;(e)成功案例。 5.3  RAVEN RAVEN數(shù)據(jù)集是用Raven的漸進(jìn)矩陣開發(fā)的,用于測量視覺推理能力。盡管使用模糊邏輯將所有邏輯運(yùn)算放松為連續(xù)形式,但DLM可以與最先進(jìn)的模型CoPINet相結(jié)合以獲得顯著的性能提升。 RAVEN的示例如圖8所示。 7a35a135303c741727aad6c1e0cc101f.webp

          8   RPM 任務(wù)中 DLM 模塊圖示。 圖像被視為輸入,然后輸入邏輯層,其中邏輯操作是 從所有 可能的候選組合中選擇的。

          Soft-DLM模塊替換CoPINet中的原始融合方法后,性能得到顯著提升, 如表4所示, 特別是在“2×2”“3×3”的情況下。這驗(yàn)證了DeepLogic的泛化能力和在連續(xù)領(lǐng)域的潛力。

          表4 在RAVEN數(shù)據(jù)集上測試準(zhǔn)確性。ACC是最終的準(zhǔn)確率,其他列代表不同的任務(wù)配置

          64c39ecf94ed7c9d86f4733d9e49ef7f.webp

          參考文獻(xiàn):《DeepLogic: Joint Learning of Neural Perception and Logical Reasoning》
          更多精彩內(nèi)容請點(diǎn)擊:AI領(lǐng)域文章精選! 關(guān)注??公眾號(hào),后臺(tái)回復(fù)【DeepLogic】可下載論文及代碼

          23e6fd6dc53df6ce63eace4a3d2c0b0e.webp

          瀏覽 74
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  青青大香蕉 | 人妻乱轮 | 99久免费视频 | 99精品人妻 | 爱操成人视频 |