<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          自注意力機(jī)制和全連接的圖卷積網(wǎng)絡(luò)(GCN)有什么區(qū)別聯(lián)系?

          共 3550字,需瀏覽 8分鐘

           ·

          2020-07-12 00:29

          加入極市專業(yè)CV交流群,與?10000+來(lái)自港科大、北大、清華、中科院、CMU、騰訊、百度?等名校名企視覺(jué)開(kāi)發(fā)者互動(dòng)交流!

          同時(shí)提供每月大咖直播分享、真實(shí)項(xiàng)目需求對(duì)接、干貨資訊匯總,行業(yè)技術(shù)交流。關(guān)注?極市平臺(tái)?公眾號(hào)?,回復(fù)?加群,立刻申請(qǐng)入群~

          本文整理自知乎問(wèn)答,僅用于學(xué)術(shù)分享,著作權(quán)歸作者所有。如有侵權(quán),請(qǐng)聯(lián)系后臺(tái)作刪文處理。
          觀點(diǎn)一

          作者|Guohao Li

          https://www.zhihu.com/question/366088445/answer/1023290162

          來(lái)說(shuō)一下自己的理解。首先結(jié)論是大部分GCN和Self-attention都屬于Message Passing(消息傳遞)。GCN中的Message從節(jié)點(diǎn)的鄰居節(jié)點(diǎn)傳播來(lái),Self-attention的Message從Query的Key-Value傳播來(lái)。
          bc22da407e2fee0d3ed7e5727f9e9ab3.webpMessage Passing[4]先看看什么是Message Passing。我們知道在實(shí)現(xiàn)和設(shè)計(jì)GCN的時(shí)候很多時(shí)候都是采用Message Passing的框架[3],其思想是把每個(gè)節(jié)點(diǎn)的領(lǐng)域的特征信息傳遞到節(jié)點(diǎn)上。在這里舉例描述一個(gè)節(jié)點(diǎn)i在第k層GCN卷積的過(guò)程:1)把節(jié)點(diǎn)i的每一個(gè)鄰居j與該節(jié)點(diǎn)的特征經(jīng)過(guò)函數(shù)變換后形成一條Message(對(duì)應(yīng)公示里函數(shù)\phi里面的操作);2)經(jīng)過(guò)一個(gè)Permutation Invariant(置換不變性)函數(shù)把該節(jié)點(diǎn)領(lǐng)域的所有Message聚合在一起(對(duì)應(yīng)函數(shù)\square);3)再經(jīng)過(guò)函數(shù)\gamma把聚合的領(lǐng)域信息和節(jié)點(diǎn)特征做一次函數(shù)變化,得到該節(jié)點(diǎn)在第k層圖卷積后的特征X_i。那么Self-attention是否也落在Message Passing的框架內(nèi)呢?我們先回顧一下Self-attention一般是怎么計(jì)算的[2],這里舉例一個(gè)Query i的經(jīng)過(guò)attention的計(jì)算過(guò)程:1】Query i的特征x_i會(huì)和每一個(gè)Key j的特征計(jì)算一個(gè)相似度e_ij;2e92d192d3eb6bc734c384ed9c9e66f6.webp2】得到Query i與所有Key的相似度后經(jīng)過(guò)SoftMax得到Attention coefficient(注意力系數(shù))\alpha_ij;a4f68d20651ac735733d673caa6c1c9c.webp3】通過(guò)Attention coefficient加權(quán)Value j計(jì)算出Query i最后的輸出z_j。ee7c84753ca99bfa8d573156884238c2.webp好了,那么我們來(lái)看看它們之間的對(duì)應(yīng)關(guān)系。首先結(jié)論是Self-attention計(jì)算中的1】2】3】是對(duì)應(yīng)Message Passing里的1)2)的。如果用Message Passing來(lái)實(shí)現(xiàn)Self-attention,那么我們可以這么一一對(duì)應(yīng):-1 每個(gè)Key-Value j可以看作是Query i的鄰居;-2 相似度和注意力系數(shù)的計(jì)算和最后3】中Value j與注意力系數(shù)相乘的操作可以對(duì)應(yīng)為Message Passing中第一步構(gòu)成Message的過(guò)程;-3 最后Self-attention的求和運(yùn)算對(duì)應(yīng)Message Passing中第二步的Permutation Invariant函數(shù),也就是說(shuō)這里聚合領(lǐng)域信息的過(guò)程是通過(guò)Query對(duì)Key-Value聚合而來(lái)。那么也就是說(shuō),Attention的過(guò)程是把每一個(gè)Query和所有Key相連得到一個(gè)Complete Bipartite Graph(左邊是Query右邊的Key-Value),然后在這圖上去對(duì)所有Query節(jié)點(diǎn)做Message Passing。當(dāng)然Query和Key-Value一樣的Self-attention就是在一般的Complete Graph上做Message Passing了。
          de09db75bd33dce802081d11b264e921.webpComplete Bipartite Graph看到這里大家可能疑問(wèn)那么為什么Self attention里面沒(méi)有了Message Passing中第三步把聚合的信息和節(jié)點(diǎn)信息經(jīng)過(guò)\gamma函數(shù)做變換的過(guò)程呢。是的,如果沒(méi)有了這一步很可能學(xué)習(xí)過(guò)程中Query的原來(lái)特征會(huì)丟失,其實(shí)這一步在Attention is all your need[1]里還是有的,不信你看:

          06c31c53e527c52be20df388c7bcf141.webp在每一次經(jīng)過(guò)Self-Attention之后基本上都是有Skip connection+MLP的,這里某種程度上對(duì)應(yīng)了Message Passing里的\gamma函數(shù)不是嗎?那么說(shuō)白了GCN和Self-attention都落在Message Passing(消息傳遞)框架里。GCN中的Message從節(jié)點(diǎn)的鄰居節(jié)點(diǎn)傳播來(lái),Self-attention的Message從Query的Key-Value傳播來(lái)。如果稱所有的Message Passing函數(shù)都是GCN的話,那么Self-attention也就是GCN作用Query和Key-Value所構(gòu)成Complete Garph上的一種特例。也正如乃巖@Naiyan Wang的回答一樣。可以說(shuō)NLP中GCN應(yīng)該大有可為,畢竟Self-attention可以看出是GCN一種,那么肯定存在比Self-attention表達(dá)能力更強(qiáng)和適用范圍更廣的GCN。感謝評(píng)論里?@葉子豪的補(bǔ)充,DGL團(tuán)隊(duì)寫了個(gè)很詳盡的用Message Passing實(shí)現(xiàn)Transformer的教程。對(duì)具體實(shí)現(xiàn)感興趣的同學(xué)可以去讀一下:DGL Transformer Tutorial。Reference:1.?Attention is All You Need2.?Self-Attention with Relative Position Representations3.?Pytorch Geometric4.?DeepGCNs for Representation Learning on Graphs
          觀點(diǎn)二

          作者|Houye

          https://www.zhihu.com/question/366088445/answer/1022692208

          來(lái)說(shuō)一下自己的理解。GAT中的Attention就是self-attention,作者在論文中已經(jīng)說(shuō)了


          d1931ec16a1907245628ddaaf6deb4ed.webp


          下面說(shuō)說(shuō)個(gè)人理解:GNN,包括GCN,是一種聚合鄰居信息來(lái)更新節(jié)點(diǎn)表示的神經(jīng)網(wǎng)絡(luò)模型。下圖取自GraphSAGE,感覺(jué)比較好的說(shuō)明了聚合過(guò)程。這里我們只關(guān)注圖2:紅色的點(diǎn)u是我們最終需要關(guān)注的點(diǎn),3個(gè)藍(lán)色的點(diǎn){v1,v2,v3}是紅色點(diǎn)的一階鄰居。每次更新在紅色節(jié)點(diǎn)表示的時(shí)候,GNN都會(huì)收集3個(gè)藍(lán)色點(diǎn)的信息并將其聚合,然后通過(guò)神經(jīng)網(wǎng)絡(luò)來(lái)更新紅色節(jié)點(diǎn)的表示。這里神經(jīng)網(wǎng)絡(luò)可以是一個(gè)mean-pooling,也是對(duì)鄰居進(jìn)行平均,這時(shí)候 v1,v2,v3的權(quán)重都是1/3。


          71e3c30aac3bb6c59ff7bfecb8390445.webp


          那這里就有問(wèn)題了,3個(gè)藍(lán)色的點(diǎn)都是鄰居,直觀的想,不同鄰居對(duì)于紅色的點(diǎn)的重要性是不同的。那么,在GNN聚合鄰居的時(shí)候能不能考慮到鄰居的重要性來(lái)加權(quán)聚合呢(比如,0.8v1+0.19v2+0.01v3)?手動(dòng)加權(quán)肯定是不實(shí)際的。雖然加權(quán)感覺(jué)好一些,但是不加權(quán)也是可以做GNN的,在有些數(shù)據(jù)集上,不加權(quán)的效果甚至更好。個(gè)人感覺(jué)在深度學(xué)習(xí)領(lǐng)域,“加權(quán)=attention”。我們這里可以設(shè)計(jì)一種attention機(jī)制來(lái)實(shí)現(xiàn)對(duì)鄰居的加權(quán)。這里的權(quán)重可以理解為邊的權(quán)重,是針對(duì)于一對(duì)節(jié)點(diǎn)來(lái)說(shuō)的(比如u和v1).那這里為啥是self-attention,因?yàn)镚NN在聚合的時(shí)候會(huì)把自身也當(dāng)做鄰居。也就是說(shuō),上圖中u的鄰居集合實(shí)際是{u,v1,v2,v3}。這是很自然的,鄰居的信息只能算是補(bǔ)充信息,節(jié)點(diǎn)自身的信息才是最重要的。現(xiàn)在問(wèn)題轉(zhuǎn)化成了:給定{u,v1,v2,v3}作為輸入,如何將u更好的表示出來(lái)?這個(gè)就很像NLP里面的self-attention了,見(jiàn)下圖(引自川陀學(xué)者:Attention機(jī)制詳解(二)——Self-Attention與Transformer)


          a3d6ba578644a19217cb77f2654f6a1f.webp


          最后總結(jié)一下:GCN和self-attention甚至attention都沒(méi)有必然聯(lián)系。對(duì)鄰居加權(quán)來(lái)學(xué)習(xí)更好的節(jié)點(diǎn)表示是一個(gè)可選項(xiàng)。
          推薦閱讀



          添加極市小助手微信(ID : cv-mart),備注:研究方向-姓名-學(xué)校/公司-城市(如:目標(biāo)檢測(cè)-小極-北大-深圳),即可申請(qǐng)加入極市技術(shù)交流群,更有每月大咖直播分享、真實(shí)項(xiàng)目需求對(duì)接、求職內(nèi)推、算法競(jìng)賽、干貨資訊匯總、行業(yè)技術(shù)交流,一起來(lái)讓思想之光照的更遠(yuǎn)吧~


          △長(zhǎng)按添加極市小助手


          △長(zhǎng)按關(guān)注極市平臺(tái),獲取最新CV干貨


          覺(jué)得有用麻煩給個(gè)在看啦~??dfee633d50eb59c221a77fd84cc6a6d1.webp

          瀏覽 49
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  狠狠操91 | 丁香五月天亚洲自拍偷拍 | 91人妻中文字幕在线精品 | 青娱乐一级无码 | 青草精品视频 |