<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          (附代碼)三行代碼就能可視化Transformer

          共 2159字,需瀏覽 5分鐘

           ·

          2021-06-26 14:24

           

          點(diǎn)擊左上方藍(lán)字關(guān)注我們



          全網(wǎng)搜集目標(biāo)檢測(cè)相關(guān),人工篩選最優(yōu)價(jià)值內(nèi)容

          編者薦語
          Transformer背后的計(jì)算模型是什么?最資深的煉丹er,也很難直觀地解釋這一結(jié)構(gòu)中的信息如何流動(dòng),數(shù)據(jù)又是如何計(jì)算的。但現(xiàn)在,只要寫上幾行代碼,就能將Transformer的流程可視化。

          轉(zhuǎn)載自 | 視學(xué)算法


          RASP代碼被編譯成一個(gè)兩層三頭的Transformer架構(gòu)。

          這就是RASP,以色列科學(xué)家最新研發(fā)的一種簡(jiǎn)單的序列處理語言。

          他們希望通過這一語言去計(jì)算和解決更高層次的抽象問題

          熱心網(wǎng)友立馬點(diǎn)贊:

          我愛這篇論文,因?yàn)槲以陂喿x機(jī)器學(xué)習(xí)論文時(shí)老是有“可視化Transformer”的想法,現(xiàn)在終于可以拿這個(gè)去玩兒了。而且用的都是一些簡(jiǎn)單的高階函數(shù),估計(jì)移植到Python或者放在Jupyter上跑也不難。

          那么,這個(gè)叫做RASP的語言到底如何“像Transformer一樣思考”的呢?

          這門新方法是怎么形成的

          讓我們先追溯到上個(gè)世紀(jì),RNN被抽象成為有限狀態(tài)自動(dòng)機(jī)(Finite State Automata)這一計(jì)算模型的例子。

          這一例子說明了RNN與自動(dòng)機(jī)之間存在著非常直觀的相似性。

          經(jīng)過這種抽象之后,圍繞RNN架構(gòu)的變體或訓(xùn)練模型就展開了更為直觀的討論和思考。

          而Transformer就不夠直觀,因?yàn)樗谔幚硇蛄袝r(shí)擁有獨(dú)特的信息流約束

          到了2020年,出現(xiàn)了基于Transformer提出的可以識(shí)別Dyck-k語言的構(gòu)架。

          這時(shí)的Transformer網(wǎng)絡(luò)在一階段的邏輯公式中作為輸入時(shí),能夠?qū)W習(xí)并展現(xiàn)出一種多步驟邏輯推理

          這就對(duì)研究團(tuán)隊(duì)產(chǎn)生了啟發(fā):能不能編寫一種程序,對(duì)輸入表達(dá)式也進(jìn)行類似的邏輯推理呢?

          RASP(Access Sequence Processing Language)就這樣誕生了。

          將Transformer編碼器的基本組件:注意力(attention)和前饋計(jì)算層(feed-forward computation)映射到簡(jiǎn)單的原語(primitives)中,然后圍繞它們形成一種新的編碼語言。

          這就是RASP,全稱限制性訪問序列處理語言

          當(dāng)然,你也可以將RASP認(rèn)為是一種Transformer結(jié)構(gòu)的計(jì)算方法:

          將Transformer網(wǎng)絡(luò)的技術(shù)細(xì)節(jié)抽象而出,使其支持符號(hào)化程序,然后“編譯”到Transformer硬件上,再定義一系列的注意力和多層感知器操作。

          這就是像Transformer一樣思考

          怎樣一個(gè)計(jì)算模型

          好,現(xiàn)在來看看這個(gè)RASP到底是由什么構(gòu)成的:

          • 內(nèi)置的序列操作符(built-in s-ops)

          在RASP中編程的目標(biāo)就是將這些序列操作符組合成起來,去計(jì)算最終的目標(biāo)任務(wù)。

          • 元素性操作(Elementwise Operations)

          反映了Transformer的前饋?zhàn)訉印?/p>

          • 其他操作

          所有除元素性操作之外的操作,比如寬度選擇(selector_width operation)

          而Transformer的核心是什么?注意力機(jī)制。

          RASP允許每個(gè)輸入定義選擇一種注意力模式,再通過加權(quán)平均,將輸入值混合成一個(gè)新的輸出。

          那么它是如何進(jìn)行編譯呢?

          當(dāng)你輸入這樣3行代碼:

          RASP就能將序列操作符和輸入對(duì)的編譯流程可視化:

          可以看到,第一層的頭并不均勻地關(guān)注整個(gè)序列,而是在序列的最后位置上展示出了偏向性。

          而Transformer第二層的注意頭與程序中的反轉(zhuǎn)選擇器(flip selector)的行為完全對(duì)應(yīng):

          表現(xiàn)怎么樣?

          RASP能夠有效地預(yù)測(cè)一個(gè)Transformer解決某任務(wù)所需的最大層數(shù)頭數(shù)嗎?

          研究者在每個(gè)任務(wù)上訓(xùn)練4個(gè)規(guī)定大小的Transformer,然后測(cè)試它們的準(zhǔn)確性:結(jié)果是大多數(shù)Transformer都達(dá)到了99.5%以上的準(zhǔn)確率。

          這讓RASP可以作為一種用來推斷Transformer擅長(zhǎng)哪些任務(wù),或其架構(gòu)如何影響這些任務(wù)的工具。

          而在根據(jù)RASP預(yù)測(cè)尺寸訓(xùn)練的Transformer減少它的頭數(shù)和層數(shù)時(shí),準(zhǔn)確率會(huì)發(fā)生大幅下降**。

          用L、H表示編譯的RASP程序所預(yù)測(cè)的層數(shù)和頭數(shù)。

          這也表示RASP擁有非常嚴(yán)格的約束性,在邊界的緊密性(Tightness of the bound)上達(dá)到了極高的精度。

          團(tuán)隊(duì)介紹

          論文一作Gail Weiss是以色列理工學(xué)院的博士生,目前在學(xué)院內(nèi)的計(jì)算機(jī)科學(xué)系中工作。

          其中二作Yoav Goldberg來自以色列的巴伊蘭大學(xué),目前就職于艾倫人工智能研究院(Allen Institute for Artificial Intelligence)


          論文地址:
          https://arxiv.org/abs/2106.06981

          下載:
          https://github.com/tech-srl/RASP

          參考鏈接:
          https://news.ycombinator.com/item?id=27528004

          END



          雙一流大學(xué)研究生團(tuán)隊(duì)創(chuàng)建,專注于目標(biāo)檢測(cè)與深度學(xué)習(xí),希望可以將分享變成一種習(xí)慣!

          整理不易,點(diǎn)贊三連↓

          瀏覽 64
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  日本免费爱爱视频 | 国产无码乱伦视频 | 成人精品喷水视频wwww | 小泽玛利亚与黑人AⅤ | 影音先锋男人av资源站 |