<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          AlphaZero的黑箱打開了!DeepMind論文登上PNAS

          共 3844字,需瀏覽 8分鐘

           ·

          2022-11-21 22:20



            視學算法報道  

          來源:AI科技評論(李梅 陳彩嫻)
          編輯:好困 Aeneas
          【導讀】AlphaZero 表明神經(jīng)網(wǎng)絡(luò)可以學到人類可理解的表征。

          國際象棋一直是 AI 的試驗場。70 年前,艾倫·圖靈猜想可以制造一臺能夠自我學習并不斷從自身經(jīng)驗中獲得改進的下棋機器。上世紀出現(xiàn)的「深藍」第一次擊敗人類,但它依賴專家編碼人類的國際象棋知識,而誕生于 2017 年的 AlphaZero 作為一種神經(jīng)網(wǎng)絡(luò)驅(qū)動的強化學習機器實現(xiàn)了圖靈的猜想。
          AlphaZero 無需使用任何人工設(shè)計的啟發(fā)式算法,也不需要觀看人類下棋,而是完全通過自我對弈進行訓練。
          那么,它真的學習了人類關(guān)于國際象棋的概念嗎?這是一個神經(jīng)網(wǎng)絡(luò)的可解釋性問題。
          對此,AlphaZero 的作者 Demis Hassabis 與 DeepMind 的同事以及谷歌大腦的研究員合作了一項研究,在 AlphaZero 的神經(jīng)網(wǎng)絡(luò)中找到了人類國際象棋概念的證據(jù),展示了網(wǎng)絡(luò)在訓練過程中獲得這些概念的時間和位置,還發(fā)現(xiàn)了 AlphaZero 與人類不同的下棋風格。論文近期發(fā)表于 PNAS。

          論文地址:https://www.pnas.org/doi/epdf/10.1073/pnas.2206625119

          AlphaZero 在訓練中獲得人類象棋概念

          AlphaZero 的網(wǎng)絡(luò)架構(gòu)包含一個骨干網(wǎng)絡(luò)殘差網(wǎng)絡(luò)(ResNet)和單獨的 Policy Head、Value Head,ResNet 由一系列由網(wǎng)絡(luò)塊和跳躍連接(skip connection)的層構(gòu)成。
          在訓練迭代方面,AlphaZero 從具有隨機初始化參數(shù)的神經(jīng)網(wǎng)絡(luò)開始,反復與自身對弈,學習對棋子位置的評估,根據(jù)在此過程中生成的數(shù)據(jù)進行多次訓練。
          為了確定 AlphaZero 網(wǎng)絡(luò)在多大程度上表征了人類所擁有的國際象棋概念,這項研究使用了稀疏線性探測方法,將網(wǎng)絡(luò)在訓練過程中參數(shù)的變化映射為人類可理解概念的變化。
          首先將概念定義為如圖 1 中橙色所示的用戶定義函數(shù)。廣義線性函數(shù) g 作為一個探針被訓練用于近似一個國際象棋概念 c。近似值 g 的質(zhì)量表示層(線性)對概念進行編碼的程度。對于給定概念,對每個網(wǎng)絡(luò)中所有層的訓練過程中產(chǎn)生的網(wǎng)絡(luò)序列重復該過程。

          圖 1:在 AlphaZero 網(wǎng)絡(luò)(藍色)中探索人類編碼的國際象棋概念。
          比如,可以用一個函數(shù)來確定我方或地方是否有「主教」 (?) :
          當然,還有很多比這個例子更復雜的象棋概念,比如對于棋子的機動性(mobility),可以編寫一個函數(shù)來比較我方和敵方移動棋子時的得分。
          在本實驗中,概念函數(shù)是已經(jīng)預先指定的,封裝了國際象棋這一特定領(lǐng)域的知識。
          接下來是對探針進行訓練。研究人員將 ChessBase 數(shù)據(jù)集中 10 的 5 次方個自然出現(xiàn)的象棋位置作為訓練集,從深度為 d 的網(wǎng)絡(luò)激活訓練一個稀疏回歸探針 g,來預測給定概念 c 的值。
          通過比較 AlphaZero 自學習周期中不同訓練步驟的網(wǎng)絡(luò),以及每個網(wǎng)絡(luò)中不同層的不同概念探針的分數(shù),就可以提取網(wǎng)絡(luò)學習到某個概念的時間和位置。
          最終得到每個概念的 what-when-where 圖,對「被計算的概念是什么」、「該計算在網(wǎng)絡(luò)的哪個位置發(fā)生」、「概念在網(wǎng)絡(luò)訓練的什么時間出現(xiàn)」這三個指標進行可視化。如圖2。

          圖2:從 A 到 B 的概念分別是「對總分的評估」、「我方被將軍了嗎」、「對威脅的評估」、「我方能吃掉敵方的皇后嗎」、「敵方這一步棋會將死我方嗎」、「對子力分數(shù)的評估」、「子力分數(shù)」、「我方有王城兵嗎」。
          可以看到,C 圖中,隨著 AlphaZero 變得更強,「threats」概念的函數(shù)和 AlphaZero 的表征(可由線性探針檢測到)變得越來越不相關(guān)。
          這樣的 what-when-where 圖包括探測方法比較所需的兩個基線,一是輸入回歸,在第 0 層顯示,二是來自具有隨機權(quán)重的網(wǎng)絡(luò)激活的回歸,在訓練步驟 0 處顯示。上圖的結(jié)果可以得出結(jié)論,回歸精度的變化完全由網(wǎng)絡(luò)表征的變化來決定。
          此外,許多 what-when-where 圖的結(jié)果都顯示了一個相同的模式,即整個網(wǎng)絡(luò)的回歸精度一直都很低,直到大約 32k 步時才開始隨著網(wǎng)絡(luò)深度的增加而迅速提高,隨后穩(wěn)定下來并在后面的層中保持不變。所以,所有與概念相關(guān)的計算都在網(wǎng)絡(luò)的相對早期發(fā)生,而之后的殘差塊要么執(zhí)行移動選擇,要么計算給定概念集之外的特征。
          而且,隨著訓練的進行,許多人類定義的概念都可以從 AlphaZero 的表征中預測到,且預測準確率很高。
          對于更高級的概念,研究人員發(fā)現(xiàn) AlphaZero 掌握它們的位置存在差異。首先在 2k 訓練步驟時與零顯著不同的概念是「material」和「space」;更復雜的概念如「king_safety」、「threats」、「mobility」,則是在 8k 訓練步驟時顯著得變?yōu)榉橇?,且?32k 訓練步驟之后才有實質(zhì)增長。這個結(jié)果與圖 2 中 what-when-where 圖顯示的急劇上升的點一致。
          另外,大多數(shù) what-when-where 圖的一個顯著特征是網(wǎng)絡(luò)的回歸精度在開始階段增長迅速,隨后達到平穩(wěn)狀態(tài)或下降。這表明目前從 AlphaZero 身上所發(fā)現(xiàn)的概念集還只是檢測了網(wǎng)絡(luò)的較早層,要了解后面的層,需要新的概念檢測技術(shù)。

          AlphaZero 的開局策略與人類不同

          在觀察到 AlphaZero 學習了人類國際象棋概念后,研究人員進一步針對開局策略探討了 AlphaZero 對于象棋戰(zhàn)術(shù)的理解,因為開局的選擇也隱含了棋手對于相關(guān)概念的理解。
          研究人員觀察到,AlphaZero 與人類的開局策略并不相同:隨著時間的推移,AlphaZero 縮小了選擇范圍,而人類則是擴大選擇范圍。
          如圖 3A 是人類對白棋的第一步偏好的歷史演變,早期階段,流行將 e4 作為第一步棋,后來的開局策略則變得更平衡、更靈活。
          圖 3B 則是 AlphaZero 的開局策略隨訓練步驟的演變。可以看到,AlphaZero 的開局總是平等地權(quán)衡所有選擇,然后逐漸縮小選擇范圍。

          圖 3:隨著訓練步驟和時間的推移,AlphaZero 和人類對第一步的偏好比較。
          這與人類知識的演變形成鮮明對比,人類知識從 e4 開始逐漸擴展,而 AlphaZero 在訓練的后期階段明顯偏向于 d4。不過,這種偏好不需要過度解釋,因為自我對弈訓練是基于快速游戲,為了促進探索增加了許多隨機性。
          造成這種差異的原因尚不清楚,但它反映了人類與人工神經(jīng)網(wǎng)絡(luò)之間的根本差異。一個可能的因素,或許是關(guān)于人類象棋的歷史數(shù)據(jù)更強調(diào)大師玩家的集體知識,而 AlphaZero 的數(shù)據(jù)包括了初學者級別下棋和單一進化策略。
          那么,當 AlphaZero 的神經(jīng)網(wǎng)絡(luò)經(jīng)過多次訓練后,是否會出對某些開局策略顯示出穩(wěn)定的偏好?
          研究結(jié)果是,許多情況下,這種偏好在不同訓練中并不穩(wěn)定,AlphaZero 的開局策略非常多樣。比如在經(jīng)典的Ruy Lopez 開局(俗稱「西班牙開局」)中,AlphaZero 在早期有選擇黑色的偏好,并遵循典型的下法,即 1.e4 e5,2.Nf3 Nc6,3.Bb5。

          圖 4:Ruy Lopez 開局
          而在不同的訓練中,AlphaZero 會逐漸收斂到 3.f6 和 3.a6 中的一個。此外,AlphaZero 模型的不同版本都各自顯示出對一個動作的強烈偏好,且這種偏好在訓練早期就得以建立。
          這進一步證明,國際象棋的成功下法多種多樣,這種多樣性不僅存在于人與機器之間,也存在于 AlphaZero 的不同訓練迭代中。

          AlphaZero 掌握知識的過程

          那么,以上關(guān)于開局策略的研究結(jié)果,與 AlphaZero 對概念的理解有什么關(guān)聯(lián)呢?
          這項研究發(fā)現(xiàn),在各種概念的 what-when-where 圖中有一個明顯的拐點,與開局偏好的顯著變化正好相吻合,尤其是 material 和 mobility的概念似乎與開局策略直接相關(guān)。
          material 概念主要是在訓練步驟 10k 和 30k 之間學習的,piece mobility 的概念也在同一時期逐步融入到 AlphaZero 的 value head 中。對棋子的 material 價值的基本理解應該先于對棋子 mobility 的理解。然后 AlphaZero 將這一理論納入到 25k 到 60k 訓練步驟之間開局偏好中。
          作者進一步分析了 AlphaZero 網(wǎng)絡(luò)關(guān)于國際象棋的知識的演變過程:首先發(fā)現(xiàn)棋力;接著是短時間窗口內(nèi)基礎(chǔ)知識的爆炸式增長,主要是與 mobility 相關(guān)的一些概念;最后是改進階段,神經(jīng)網(wǎng)絡(luò)的開局策略在數(shù)十萬個訓練步驟中得到完善。雖然整體學習的時間很長,但特定的基礎(chǔ)能力會在相對較短的時間內(nèi)迅速出現(xiàn)。
          前國際象棋世界冠軍 Vladimir Kramnik 也被請來為這一結(jié)論提供佐證,他的觀察與上述過程一致。
          最后總結(jié)一下,這項工作證明了 AlphaZero 網(wǎng)絡(luò)所學習的棋盤表示能夠重建許多人類國際象棋概念,并詳細說明了網(wǎng)絡(luò)所學習的概念內(nèi)容、在訓練時間中學習概念的時間以及計算概念的網(wǎng)絡(luò)位置。而且,AlphaZero 的下棋風格與人類并不相同。
          既然我們以人類定義的國際象棋概念來理解神經(jīng)網(wǎng)絡(luò),那么下一個問題將會是:神經(jīng)網(wǎng)絡(luò)能夠?qū)W習人類知識以外的東西嗎?


          點個在看 paper不斷!

          瀏覽 36
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  逼特逼| 99精品人妻无码一区二区三区 | 成人四区免费 | 日本岛国视频在线观看一区二区三区 | 蜜桃在线无码 |