<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          1750億參數(shù),GPT-3卻并不「智能」

          共 3230字,需瀏覽 7分鐘

           ·

          2020-08-19 13:45



          ??新智元報(bào)道??

          來(lái)源:leogao.dev

          編輯:白峰

          【新智元導(dǎo)讀】擁有1750億參數(shù)的GPT-3取得了驚人的進(jìn)步,但它并不是通用人工智能。GPT-3讓我們看到了語(yǔ)言模型的能力,能否利用這種能力構(gòu)建出一個(gè)模型,更好地理解周?chē)氖澜纾?/span>
          ??
          盡管有關(guān) GPT-3的傳說(shuō)四起,但它本身并不是 AGI。
          ?
          雖然在某些領(lǐng)域接近了人類(lèi)能力(下棋或?qū)懽髡娴牧钊擞∠笊羁? ,但它們好像做不出通用的智能,很多時(shí)候,GPT-3跟 AlphaGo 更像。
          ?? ? ? ? ? ??
          GPT-3(或者未來(lái) GPT-x)在模仿人類(lèi)方面表現(xiàn)的很不錯(cuò),但它對(duì)過(guò)去的互動(dòng)沒(méi)有記憶,無(wú)法進(jìn)行「多輪對(duì)話」,也無(wú)法跟蹤目標(biāo)或發(fā)揮更大的潛能。
          ?
          然而,語(yǔ)言建模與國(guó)際象棋或圖像分類(lèi)有很大的區(qū)別。自然語(yǔ)言本質(zhì)上是對(duì)世界的信息進(jìn)行編碼,其表達(dá)方式比任何其他方式都要豐富得多。
          ?
          如果將語(yǔ)言模型嵌入到現(xiàn)有的AI模型,能否構(gòu)建出原始的通用人工智能(AGI)呢?

          ?

          GPT-3解決的問(wèn)題變多了,但只是堆了更多參數(shù)

          語(yǔ)言模型的目標(biāo)僅僅是最大化模型在自然語(yǔ)言數(shù)據(jù)上的可能性, GPT-3使用的自回歸意味著它會(huì)盡可能地預(yù)測(cè)下一個(gè)單詞。
          ?
          通俗來(lái)講,GPT-3更多地關(guān)注語(yǔ)法和拼寫(xiě)等文本差異,而不是語(yǔ)義和邏輯連貫性,而后者才是智能的關(guān)鍵,當(dāng)自回歸模型接近完美時(shí),想要繼續(xù)提升,唯一的途徑就是語(yǔ)義理解和邏輯構(gòu)建。
          ?
          在極端情況下,任何一個(gè)模型,如果其損失達(dá)到自然語(yǔ)言的香儂熵,就會(huì)在任何方面與真正的人類(lèi)作品完全無(wú)法區(qū)分,而且我們?cè)浇咏瑩p失的改善對(duì)質(zhì)量的影響就越不容易察覺(jué)。

          ? ? ? ?? ? ? ?
          文本的香儂熵
          ?
          香儂熵:由于語(yǔ)言固有的隨機(jī)性,一個(gè)語(yǔ)言模型可能達(dá)到的理論上最低的損失,損失越低,語(yǔ)言越像「人話」。
          ?
          換句話說(shuō),使用馬爾可夫鏈將單詞串起來(lái)可以讓你完成50% 的任務(wù),而另外的50%,需要你搞清楚語(yǔ)法、考慮跨段落的主題 ,更重要的是邏輯上保持一致。
          ?? ? ? ?馬爾科夫鏈
          ?
          GPT-3的重要之處在于,只要不斷增加模型的大小,就可以不斷降低損失,可能直到它達(dá)到文本的香儂。不需要聰明的架構(gòu)或復(fù)雜的手工規(guī)則啟發(fā),只要把它放大,就可以得到一個(gè)更好的語(yǔ)言模型。
          ?
          但是,如果這種語(yǔ)言模型隱藏在 GPT-x 內(nèi)部,那么我們?cè)撊绾问褂盟兀?/span>

          可以直接用自然語(yǔ)言問(wèn)它!它認(rèn)為接下來(lái)會(huì)發(fā)生什么,給定一系列事件,它就能給出一個(gè)很好的答案。
          ?
          有reddit網(wǎng)友說(shuō),「各種各樣的實(shí)驗(yàn)表明 GPT-3在世界建模中經(jīng)常失敗,解決的問(wèn)題變多了,只是添加了更多的參數(shù) 」。
          ?? ? ? ?? ? ? ?
          我們可以來(lái)做個(gè)假設(shè),更大的模型將開(kāi)發(fā)出更好的世界模型。隨著損失接近香農(nóng)熵,它的世界建模能力必將變得與互聯(lián)網(wǎng)上的普通人類(lèi)一樣好 ,這可以歸結(jié)為兩個(gè)問(wèn)題:
          ?
          一,我們真的能建立損失接近香儂熵的模型嗎?

          二,多近才算近?世界建模能力是否切實(shí)可行?
          ?
          ? ? ? ? ? ? ?
          隨著加入更多的參數(shù)和計(jì)算,損失不斷下降
          ?
          第一個(gè)問(wèn)題的答案是完全有可能,這是 GPT-3的主要特點(diǎn)。

          第二個(gè)問(wèn)題的答案是... 沒(méi)人知道。
          ?
          目前,我們只能看到 GPT-3在世界建模方面表現(xiàn)更好了,但還遠(yuǎn)遠(yuǎn)不夠。
          ?
          當(dāng)有1萬(wàn)億,10萬(wàn)億,100萬(wàn)億參數(shù)的模型可用時(shí),我們需要很長(zhǎng)一段時(shí)間來(lái)驗(yàn)證這個(gè)假設(shè)是否正確。如果 GPT-x 展示了在現(xiàn)實(shí)世界中不可思議的預(yù)測(cè)能力,那么這可能會(huì)奏效。

          ?

          語(yǔ)言模型如何找到「亞馬遜上最便宜的曲別針」

          然而,世界模型本身并不是智能體創(chuàng)造的。那么,怎樣才能把一個(gè)世界模型變成一個(gè)智能體呢?

          首先,我們需要一個(gè)目標(biāo),比如Paperclip maximizer。
          ?
          Paperclip maximizer是一個(gè)經(jīng)典的思想實(shí)驗(yàn),它展示了一個(gè)AGI,即使是一個(gè)設(shè)計(jì)合理且沒(méi)有惡意的智能,也可能毀滅人類(lèi)。這個(gè)思想實(shí)驗(yàn)表明,表面看來(lái)友善的人工智能也可能構(gòu)成威脅。
          ?
          選擇Paperclip maximizer作為目標(biāo),可以融入人類(lèi)價(jià)值觀的偶然性:一個(gè)極其強(qiáng)大的優(yōu)化器(一個(gè)高度智能的AI)可以尋找與我們完全不同的目標(biāo) ,比如消耗我們生存所必需的資源來(lái)獲得自我提升
          ?
          然后,構(gòu)建世界模型的問(wèn)題,就轉(zhuǎn)變?yōu)椤覆扇∈裁葱袆?dòng)來(lái)最大化這個(gè)目標(biāo)」
          ?
          看似很簡(jiǎn)單,對(duì)吧?實(shí)則不然,問(wèn)題在于我們的世界模型可能無(wú)法預(yù)測(cè)到接下來(lái)所有的可能。
          ?? ? ? ?? ? ? ?GPT-3告訴你獲取更多曲別針的方法(來(lái)源: OpenAI API)
          ?

          那么,我們能做些什么呢?向模型詢(xún)問(wèn)給定的世界狀態(tài)下可以做的事情,這在GPT-3的能力范圍。
          ?
          如果去亞馬遜說(shuō)「我要買(mǎi)曲別針」,平臺(tái)會(huì)按照價(jià)格進(jìn)行排序,你選定了一款,那花100塊能買(mǎi)到多少曲別針??
          ?
          用語(yǔ)言模型處理的話,「曲別針」后面接「價(jià)格」的可能性很高,而「價(jià)格」后面有一系列的價(jià)格列表。我們就可以快速計(jì)算出有哪些曲別針可選,以及買(mǎi)特定的曲別針要花多少錢(qián)(每個(gè)步驟序列給智能體帶來(lái)的回報(bào))。
          ?
          所以現(xiàn)在,為了估計(jì)任何操作的狀態(tài)動(dòng)作值,我們可以簡(jiǎn)單地用 Monte Carlo 樹(shù)來(lái)搜索
          ?
          從給定的智能體狀態(tài)開(kāi)始,我們使用世界模型展開(kāi)動(dòng)作序列。通過(guò)整合所有的結(jié)果,我們可以知道智能體每個(gè)行動(dòng)可以得到多少預(yù)期報(bào)酬。
          ?
          然后,我們可以使用一個(gè)帶有狀態(tài)動(dòng)作值函數(shù)的貪婪策略,來(lái)決定要采取的動(dòng)作。

          ?? ? ? ?? ? ? ?


          蒙特卡洛樹(shù)搜索

          ?

          每一個(gè)動(dòng)作都可能是非常高級(jí)的,比如「找出買(mǎi)曲別針最便宜的方式」 ,但得益于語(yǔ)言的靈活性,我們可以用簡(jiǎn)短的token序列來(lái)描述非常復(fù)雜的想法

          ?

          一旦智能體決定了一個(gè)行動(dòng),為了實(shí)際執(zhí)行這些抽象行動(dòng),這個(gè)行動(dòng)可以使用語(yǔ)言模型分解成更小的子目標(biāo),比如「找出亞馬遜上最便宜的曲別針」 ,類(lèi)似于層次強(qiáng)化學(xué)習(xí)。


          根據(jù)模型的能力和動(dòng)作的抽象程度,甚至可以將動(dòng)作分解成一個(gè)詳細(xì)的指令列表。我們也可以將智能體的狀態(tài)表示為自然語(yǔ)言

          ?

          由于智能體狀態(tài)只是觀測(cè)值的壓縮表示,因此我們可以讓語(yǔ)言模型對(duì)任何觀測(cè)值的重要信息進(jìn)行匯總,以表示其自身的內(nèi)部世界狀態(tài)。語(yǔ)言模型也可以用來(lái)周期性地刪除(即忘記)狀態(tài)中的信息,以便為更多的觀測(cè)留出空間。

          ?

          這樣我們就能得到一個(gè)系統(tǒng),它可以從外部世界傳遞觀測(cè)信息,花一些時(shí)間思考該做什么,并用自然語(yǔ)言輸出一個(gè)動(dòng)作

          ?

          打頭的是一個(gè)輸入模塊,可以將各種觀測(cè)轉(zhuǎn)換為與當(dāng)前智能體狀態(tài)相關(guān)的摘要文本。例如,網(wǎng)頁(yè)、聲音、圖像都可以想辦法轉(zhuǎn)換為文本并映射到智能體的狀態(tài)。

          ?

          最后,為了讓模型在現(xiàn)實(shí)世界真正發(fā)揮作用,可以再次使用語(yǔ)言模型將自然語(yǔ)言翻譯成代碼、 shell 命令、按鍵序列等許多可能的方式。

          ?

          像輸入一樣,有無(wú)數(shù)種不同的方法來(lái)解決輸出問(wèn)題,哪一種方法是最好要看你的具體使用場(chǎng)景了,最重要的是,可以從純文本智能體中獲得各種形式的輸入和輸出。

          ? ? ? ?

          一個(gè)輸入模塊的示例,該模塊采用截圖輸入與當(dāng)前智能體狀態(tài)相結(jié)合的方式,將圖片信息轉(zhuǎn)換為智能體的觀測(cè)。

          ?


          當(dāng)然,這更像一個(gè)思想實(shí)驗(yàn)


          上文所描述的,更像是一個(gè)思想實(shí)驗(yàn),而不是明天將要發(fā)生的事情。

          ?

          這種方法在很大程度上依賴(lài)于一個(gè)主要假設(shè)——更大的未來(lái)模型將具有更好的世界建模能力。然而,這可能是我們有史以來(lái)最接近AGI的機(jī)會(huì):現(xiàn)在有了一條通往 AGI 的具體路徑。

          ?

          這個(gè)路徑聽(tīng)上去不那么「扯淡」,未來(lái)能否實(shí)現(xiàn)讓我們拭目以待。


          參考:

          https://leogao.dev/2019/10/27/The-Difficulties-of-Text-Generation-with-Autoregressive-Language-Models/

          https://leogao.dev/2020/05/29/GPT-3-A-Brief-Summary/?


          瀏覽 37
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  日日久精 | 青春草免费视频在线 | 开心激情网五月天 | 激情偷拍在线亚洲 | 欧美高清在线 |