<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          為什么要進(jìn)行圖學(xué)習(xí)?談一談逆勢(shì)而上的圖神經(jīng)網(wǎng)絡(luò)

          共 9949字,需瀏覽 20分鐘

           ·

          2021-01-11 13:59


          點(diǎn)擊上方 藍(lán)字關(guān)注我們



          問一問近幾年來(lái)逆勢(shì)而上的技術(shù)有什么?相信你一定會(huì)說出來(lái)一個(gè):圖神經(jīng)網(wǎng)絡(luò)。


          圖神經(jīng)網(wǎng)絡(luò)將會(huì)在人工智能的各個(gè)領(lǐng)域起著非常重要的作用,雖然目前還沒有完全成為各大頂會(huì)的焦點(diǎn),但不可否認(rèn),它將會(huì)。因?yàn)橄鄬?duì)于一般的神經(jīng)網(wǎng)絡(luò),圖神經(jīng)網(wǎng)絡(luò)解決了一個(gè)很關(guān)鍵的問題,就是object跟object之間的關(guān)系,這個(gè)object可以是網(wǎng)絡(luò)中的節(jié)點(diǎn),圖像中的像素,文本中的單詞,語(yǔ)音中的音符,甚至是神經(jīng)網(wǎng)絡(luò)的基本操作??梢钥闯鰜?lái),圖神經(jīng)網(wǎng)絡(luò)可以與自然語(yǔ)言處理,計(jì)算機(jī)視覺,強(qiáng)化學(xué)習(xí),甚至是最基本的缺失值補(bǔ)全這樣的機(jī)器學(xué)習(xí)任務(wù)結(jié)合。圖神經(jīng)網(wǎng)絡(luò)下面的一些特點(diǎn):

          (1)圖神經(jīng)網(wǎng)絡(luò)能夠?qū)崿F(xiàn)強(qiáng)大的非結(jié)構(gòu)學(xué)習(xí)的能力:

          圖神經(jīng)網(wǎng)絡(luò)能夠從非結(jié)構(gòu)化數(shù)據(jù)(例如:場(chǎng)景圖片、故事片段等)中進(jìn)行學(xué)習(xí)和推理。盡管傳統(tǒng)的深度學(xué)習(xí)方法被應(yīng)用在提取歐氏空間數(shù)據(jù)的特征方面取得了巨大的成功,但許多實(shí)際應(yīng)用場(chǎng)景中的數(shù)據(jù)是從非歐式空間生成的,傳統(tǒng)的深度學(xué)習(xí)方法在處理非歐式空間數(shù)據(jù)上的表現(xiàn)卻仍難以使人滿意。

          (2)圖神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)時(shí)序以及非時(shí)序排序的特征學(xué)習(xí):

          GNN的輸出不以節(jié)點(diǎn)的輸入順序?yàn)檗D(zhuǎn)移的。而在時(shí)空領(lǐng)域的建模,我們既可以關(guān)注無(wú)先后順序的空間拓?fù)浣Y(jié)構(gòu),也可以建模有順序的時(shí)間維度,多一維度的信息,多一份決策的能力;

          (3)圖神經(jīng)網(wǎng)絡(luò)可以解決兩個(gè)節(jié)點(diǎn)之間依賴關(guān)系的學(xué)習(xí):

          傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)中,這種依賴關(guān)系只能通過節(jié)點(diǎn)的特征來(lái)體現(xiàn)。圖嵌入通過保留圖的網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)和節(jié)點(diǎn)內(nèi)容信息,將圖中頂點(diǎn)表示為低維向量,以便使用簡(jiǎn)單的機(jī)器學(xué)習(xí)算法(例如,支持向量機(jī)分類)進(jìn)行處理。


          除此之外,圖神經(jīng)網(wǎng)絡(luò)在社交網(wǎng)絡(luò)、廣告推薦、搜索推薦、藥物生成、智能體交互、高能物理學(xué)到社會(huì)科學(xué)和經(jīng)濟(jì)學(xué)等領(lǐng)域的復(fù)雜關(guān)系建模和互動(dòng)系統(tǒng)構(gòu)建起到重要作用。今天,給大家介紹一個(gè)長(zhǎng)期關(guān)注圖神經(jīng)網(wǎng)絡(luò),干貨滿滿的公眾號(hào),深度學(xué)習(xí)與圖網(wǎng)絡(luò)。該公眾號(hào),主要關(guān)注圖神經(jīng)網(wǎng)絡(luò),以及深度學(xué)習(xí)和機(jī)器學(xué)習(xí)相關(guān)內(nèi)容,偶爾嘗試解讀一些有意思的研究工作,"但水平有限,歡迎來(lái)批評(píng)指正"。在研究方向上, 關(guān)注以下幾個(gè)方面:

          • 圖與自然語(yǔ)言處理

          • 圖與計(jì)算機(jī)視覺

          • 圖與智慧交通

          • 圖與推薦

          • 圖優(yōu)化與解決過平滑問題

          • 圖上節(jié)點(diǎn)分類

          • 圖池化與分類以及分子圖生成

          • 動(dòng)態(tài)圖,時(shí)空?qǐng)D嵌入

          在研究動(dòng)態(tài)上:公眾號(hào)關(guān)注NeurIPS, ICML, KDD, CVPR等會(huì)議論文,TPAMI, TNNLS, TKDE, TKDD等期刊論文,以及關(guān)注Arxiv上與圖網(wǎng)絡(luò)相關(guān)的研究動(dòng)態(tài),同時(shí)關(guān)注GitHub上關(guān)于GNN 庫(kù)。如果你也是上面研究方向的同學(xué),歡迎關(guān)注與收藏。下面是最近的推送,看看有沒有你需要的~:

          近期40條精彩推送

          Dynamic/Temporal Graph動(dòng)態(tài)圖|時(shí)態(tài)圖相關(guān)論文,數(shù)據(jù)集匯總

          AAAI 2021 |圖模型相關(guān)工作——數(shù)據(jù)擴(kuò)充;近似梯度下降;解決災(zāi)難性遺忘問題

          NeurIPS2020 | 結(jié)合集成學(xué)習(xí)與Rademacher復(fù)雜度分析多尺度GNN解決過擬合問題

          NeurIPS2020 | 圖池化Rethinking pooling in graph neural networks

          NeurIPS2020 | 圖分類SOTA:節(jié)點(diǎn)互信息最大化與多尺度特征交互

          NeurIPS 2020 | 超越同質(zhì)性假設(shè): 解決當(dāng)前GNN的局限與并提出有效性設(shè)計(jì)

          NeurIPS 2020 | 圖上學(xué)習(xí)新方式—迭代式圖學(xué)習(xí): 結(jié)合下游任務(wù)迭代地學(xué)習(xí)圖結(jié)構(gòu)和圖表示

          NeurIPS2020 | 解決不確定性問題—用于半監(jiān)督學(xué)習(xí)的圖隨機(jī)神經(jīng)網(wǎng)絡(luò)(代碼已經(jīng)公開)

          ICLR 2020 | 兼顧效率與質(zhì)量—基于譜方法的高效多級(jí)圖嵌入框架

          NeurIPS2020 | 用于半監(jiān)督學(xué)習(xí)的圖隨機(jī)神經(jīng)網(wǎng)絡(luò)

          NeurIPS2020 | 顯著超越STGCN: 方法簡(jiǎn)單-效果顯著自適應(yīng)構(gòu)圖的時(shí)空?qǐng)D網(wǎng)絡(luò)

          硬核 | TKDE2020-時(shí)空數(shù)據(jù)挖掘深度學(xué)習(xí)技術(shù)全面綜述

          NeurIPS2020 | Google《圖學(xué)習(xí)與挖掘》綜述教程,311頁(yè)ppt+教程

          NeurIPS2020 | 圖對(duì)比學(xué)習(xí) | 結(jié)合四種數(shù)據(jù)擴(kuò)充方式進(jìn)行對(duì)比學(xué)習(xí)(附論文代碼鏈接)

          NeurIPS2020 | 四篇圖魯棒性研究相關(guān)論文一覽

          方法總結(jié) | 兩篇論文分析解耦/分離/Disentangled/圖神經(jīng)網(wǎng)絡(luò)表示學(xué)習(xí)

          ICLR2021Submission/6677分 / 性能超越圖神經(jīng)網(wǎng)絡(luò),將標(biāo)簽傳遞和簡(jiǎn)單模型結(jié)合實(shí)現(xiàn)SOTA

          NeurIPS 2020 | IGNN圖卷積超分網(wǎng)絡(luò): 挖掘隱藏在低分辨率圖像中的高清紋理

          NeurIPS 2020 | 熱點(diǎn)之一最優(yōu)運(yùn)輸相關(guān)論文一覽

          圖神經(jīng)網(wǎng)絡(luò)強(qiáng)勢(shì)崛起 | ICLR 2021最全論文主題分析

          沒有完整圖時(shí),如何使用圖深度學(xué)習(xí)?你需要了解流形學(xué)習(xí)2.0版本

          終于來(lái)了!圖核論文的研究綜述: 2020圖核方法最新進(jìn)展與未來(lái)挑戰(zhàn),151頁(yè)pdf

          注意力機(jī)制 | 圖卷積多跳注意力機(jī)制 | Direct multi-hop Attention based GNN

          NeurIPS2020 | 基于路徑積分設(shè)計(jì)的圖卷積和圖池化操作

          NeurIPS 2020 | 基于模型的對(duì)抗元強(qiáng)化學(xué)習(xí)

          NeurIPS 2020 | Hinton新作!越大的自監(jiān)督模型,半監(jiān)督學(xué)習(xí)需要的標(biāo)簽越少

          KDD2020 | MoFlow:基于流的分子圖生成模型

          【綜述】圖神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)在智能交通中的應(yīng)用:綜述Survey

          淺談圖上的自監(jiān)督學(xué)習(xí)——對(duì)比學(xué)習(xí)

          論文快訊 | NeurIPS2020 重新思考圖神經(jīng)網(wǎng)絡(luò)中的池化

          自監(jiān)督學(xué)習(xí) | ICML2020 自監(jiān)督學(xué)習(xí)什么時(shí)候可以對(duì)GCN有利?

          TPAMI2020 |  節(jié)點(diǎn)屬性缺失怎么辦?隱空間attribute-structure對(duì)齊來(lái)解決

          論文快訊 | NeurIPS20:有向圖卷積網(wǎng)絡(luò)Digraph Inception Convolutional Networks

          拉普拉斯矩陣與拉普拉斯算子的關(guān)系 (干貨預(yù)警,需慢讀細(xì)品)

          論文快訊 | TMM20-半監(jiān)督學(xué)習(xí)的各向異性圖卷積網(wǎng)絡(luò)

          最新《圖神經(jīng)網(wǎng)絡(luò)推薦系統(tǒng)》2020綜述論文,27頁(yè)pdf

          TGN時(shí)態(tài)圖網(wǎng)絡(luò):即使很久不發(fā)朋友圈,也能知道你的新興趣

          NeurIPS2020 | 圖對(duì)比學(xué)習(xí) | 結(jié)合四種數(shù)據(jù)擴(kuò)充方式進(jìn)行對(duì)比學(xué)習(xí)(附論文代碼鏈接)

          使用標(biāo)簽預(yù)測(cè),性能竟超GNN,訓(xùn)練時(shí)間和參數(shù)量還百倍降低?

          NeurIPS 2020 | 圖機(jī)器學(xué)習(xí)NeurIPS'20: 80多篇與圖相關(guān)的論文整理與小結(jié) (更新中)


          圖神經(jīng)網(wǎng)絡(luò)說難不難,說容易不容易。如果你還沒有入門,不用著急,站在他人的肩膀上,你會(huì)看的輕松一點(diǎn),歡迎參考從下面的學(xué)習(xí)路線

          1 Tutorial教程合集(入門必讀)

          為什么要進(jìn)行圖嵌入表示?

          圖嵌入表示:深度游走(Deepwalk)

          圖系列|從圖(Graph)到圖卷積: 漫談圖神經(jīng)網(wǎng)絡(luò)模型(I)

          圖系列|從圖(Graph)到圖卷積: 漫談圖神經(jīng)網(wǎng)絡(luò)模模型(II)

          圖系列|從圖(Graph)到圖卷積: 漫談圖神經(jīng)網(wǎng)絡(luò)模模型(III)

          圖卷積神經(jīng)網(wǎng)絡(luò)Graph Convolutional Network(GCN):從問題到理論分析

          圖網(wǎng)絡(luò)延伸GraphSage: Inductive learning 和 Transductive learning

          圖注意機(jī)制GAT:三種注意力機(jī)制在圖神經(jīng)網(wǎng)絡(luò)中的應(yīng)用和總結(jié)

          SGC Networks,一種簡(jiǎn)化的圖神經(jīng)網(wǎng)絡(luò)=>產(chǎn)生高達(dá)兩個(gè)數(shù)量級(jí)的加速

          圖系列GIN|GNN模型到底有多強(qiáng)呢?Weisfeiler-Leman test來(lái)告訴你

          斯坦福Jure Leskovec——圖神經(jīng)網(wǎng)絡(luò)研究最新進(jìn)展(附下載鏈接)

          清華大學(xué)唐杰——圖神經(jīng)網(wǎng)絡(luò) (GNN) 算法及其應(yīng)用138頁(yè)P(yáng)PT(附下載鏈接)

          斯坦福大學(xué)Jure Leskovec—圖神經(jīng)網(wǎng)絡(luò)GNN研究進(jìn)展:表達(dá)性、預(yù)訓(xùn)練、OGB,71頁(yè)ppt

          2 深度思考(進(jìn)階)

          GNN需要預(yù)訓(xùn)練嗎?| GNN教程:圖上的預(yù)訓(xùn)練任務(wù)上篇
          GNN需要預(yù)訓(xùn)練嗎?| GNN教程:圖上的預(yù)訓(xùn)練任務(wù)下篇
          思考:Transformers與圖神經(jīng)網(wǎng)絡(luò)有什么關(guān)系,我們能從transformer學(xué)習(xí)什么?
          從Laplacian矩陣開始,理解GCN
          如何解決圖神經(jīng)網(wǎng)絡(luò)(GNN)訓(xùn)練中過度平滑的問題?
          圖網(wǎng)絡(luò)GNN(特別篇):一文遍覽圖網(wǎng)絡(luò)中16種典型的圖卷積和9種圖池化Graph Pooling
          從源頭深入分析GCN的四個(gè)行文思路:重要度度量與累計(jì),注意力,局部一致性,Laplacian變換
          KDD‘18 | 學(xué)習(xí)任意階鄰近度的Network Embedding

          3 綜述論文

          清華大學(xué)朱文武「基于深度學(xué)習(xí)的圖表示」綜述論文,51頁(yè)pdf(附下載鏈接)

          圖綜述|綜述《A Gentle Introduction to Deep Learning for Graphs》

          圖網(wǎng)絡(luò)綜述|9篇研究綜述看圖神經(jīng)網(wǎng)絡(luò)GNN的最新研究進(jìn)展

          圖網(wǎng)絡(luò)綜述|10-異構(gòu)網(wǎng)絡(luò)表示學(xué)習(xí)

          圖網(wǎng)絡(luò)綜述|動(dòng)態(tài)圖上的表示學(xué)習(xí)(1)

          圖文獻(xiàn)綜述|動(dòng)態(tài)圖上的表示學(xué)習(xí)(2)

          圖文獻(xiàn)綜述|交通領(lǐng)域如何構(gòu)建圖模型進(jìn)行深度學(xué)習(xí)


          學(xué)習(xí)一個(gè)新的領(lǐng)域最好是從綜述開始,因?yàn)榫C述已經(jīng)非常全面概括了目前該領(lǐng)域的論文,進(jìn)行了合理的分類。公眾號(hào)已經(jīng)整理打包好第3部分全部的綜述論文,后期新的論文會(huì)加入進(jìn)去。如果你也需要,在下面公眾號(hào)回復(fù):圖網(wǎng)絡(luò)資料就可以了。

          4 圖相關(guān)專題

          圖專題|圖神經(jīng)網(wǎng)絡(luò)在醫(yī)學(xué)影像中的應(yīng)用

          圖專題 | 欺詐檢測(cè)之圖算法(1)

          圖專題 | 欺詐檢測(cè)之圖算法(2)

          圖專題 | 圖網(wǎng)絡(luò)之核函數(shù)(1)

          圖專題 | 圖網(wǎng)絡(luò)之核函數(shù)(2)

          圖專題 | 圖上的池化方法

          圖專題 | 圖上的生成模型

          圖專題 | 動(dòng)態(tài)圖表示學(xué)習(xí)

          圖專題 | 圖表示學(xué)習(xí)方法的魯棒性研究

          5 會(huì)議論文合集

          ICML20  | 連續(xù)圖神經(jīng)網(wǎng)絡(luò);常數(shù)曲率圖神經(jīng)網(wǎng)絡(luò);貝葉斯圖神經(jīng)網(wǎng)絡(luò)

          論文匯總 | (全部)AAAI'20圖相關(guān)論文合集,涉及各個(gè)方面

          論文匯總 | 15篇ICLR'20與圖網(wǎng)絡(luò)學(xué)習(xí)有關(guān)的論文匯總(第一期)

          論文匯總 | 14篇ICLR'20與圖網(wǎng)絡(luò)學(xué)習(xí)有關(guān)的論文匯總(第二期)

          論文匯總 | 14篇ICLR'20與圖網(wǎng)絡(luò)學(xué)習(xí)有關(guān)的論文匯總(第三期)

          論文匯總 | ICCV'19 圖相關(guān)論文合集

          論文匯總 | KDD'19 圖相關(guān)論文合集

          論文匯總 | NeurIPS'19 圖網(wǎng)絡(luò)相關(guān)論文合集

          論文簡(jiǎn)訊 | AAAI'20中五篇與圖神經(jīng)網(wǎng)絡(luò)相關(guān)論文,涉及圖分類,動(dòng)態(tài)圖建模,知識(shí)圖譜對(duì)齊,交通預(yù)測(cè)等

          論文簡(jiǎn)訊 | WWW'19圖相關(guān)論文

          6 論文快訊

          圖表示學(xué)習(xí)和幾何深度學(xué)習(xí)workshop(II): node2vec與強(qiáng)化學(xué)習(xí);雙曲嵌入;Group卷積中的注意力等

          ELLIS Workshop: April 2020圖網(wǎng)絡(luò)最新研究進(jìn)展(I)

          論文匯訊: 圖網(wǎng)絡(luò)新應(yīng)用:新燃料發(fā)現(xiàn),有機(jī)化學(xué)逆合成,多任務(wù)學(xué)習(xí),單一場(chǎng)景中的檢測(cè)等等

          GRAPH-BERT:圖表示學(xué)習(xí)只需要注意力

          圖機(jī)器學(xué)習(xí)-圖拉普拉斯算子的離散正則性,141頁(yè)ppt,Discrete regularity graph Laplacians

          KDD19開源論文 Heterogeneous Graph Neural Network

          KDD2020|混合時(shí)空?qǐng)D卷積網(wǎng)絡(luò):更精準(zhǔn)的時(shí)空預(yù)測(cè)模型

          論文快訊:5篇Graph相關(guān)內(nèi)容:多標(biāo)簽建模;因果結(jié)構(gòu)學(xué)習(xí);N-gram Graph等等

          論文快訊:一些新圖卷積相關(guān)方法的提出來(lái)啦

          論文快訊:很多新的圖學(xué)習(xí)方法提出,趕緊來(lái)看

          論文快訊: 圖神經(jīng)網(wǎng)絡(luò)的新鮮應(yīng)用

          論文快訊: 圖網(wǎng)絡(luò)相關(guān)的最新文獻(xiàn),涉及Graph Embedding 綜述,交通預(yù)測(cè)、停車位可用性預(yù)測(cè),圖匹配等

          7 相關(guān)資料

          資料|一本機(jī)器學(xué)習(xí)與復(fù)雜網(wǎng)絡(luò)相關(guān)的書籍《Machine Learning in Complex Networks》
          資料 |斯坦福大學(xué)2019秋季新課CS224W: Machine Learning with Graphs 課程講義PPT等
          斯坦福CS224W課程—機(jī)器學(xué)習(xí)與圖—課程介紹與資料匯總
          【經(jīng)典】GAT作者Petar劍橋大學(xué)博士論文《深層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的復(fù)興》147頁(yè)pdf,附下載鏈接
          資料 | 17篇論文,詳解圖的機(jī)器學(xué)習(xí)趨勢(shì) | NeurIPS 2019
          資料 | NLP 和人文社會(huì)學(xué)科課程來(lái)了:斯坦福開年公開課主講NLP和社交網(wǎng)絡(luò)應(yīng)用
          資料 | Graph embedding|Graph Neural Network 學(xué)習(xí)資料匯總
          GitHub | Awesome Graph classification


          一個(gè)新的領(lǐng)域如果有一些系統(tǒng)的輔助的資料就不會(huì)被帶偏,迷失方向。博客公眾號(hào),論文相對(duì)于完整的書籍還是缺乏系統(tǒng)性,為此公眾號(hào)系統(tǒng)收集了圖網(wǎng)絡(luò)相關(guān)的資料,書籍等。如果你也需要,在公眾號(hào),回復(fù):圖網(wǎng)絡(luò)資料就可以領(lǐng)取

          8 深度解析


          深度解讀:KDD2020|混合時(shí)空?qǐng)D卷積網(wǎng)絡(luò):更精準(zhǔn)的時(shí)空預(yù)測(cè)模型

          深度解讀:【GNN】VGAE:利用變分自編碼器完成圖重構(gòu)

          深度解讀:互信息及其在圖表示學(xué)習(xí)的應(yīng)用

          深度解讀:基于圖神經(jīng)網(wǎng)絡(luò)的聚類研究與應(yīng)用

          深度解讀:Transformer for Graph Classification:無(wú)監(jiān)督的學(xué)習(xí)下圖分類(代碼已經(jīng)公開)

          深度解讀:圖系列|三篇圖層次化表示學(xué)習(xí)(Hierarchical GNN):圖分類以及節(jié)點(diǎn)分類

          深度解讀:團(tuán)隊(duì)新作 | 多尺度圖卷積神經(jīng)網(wǎng)絡(luò):有效統(tǒng)一三維形狀離散化特征表示

          深度解讀:ICLR20|CUHK及NUS提出兩個(gè)指標(biāo)度量與提升圖網(wǎng)絡(luò)消息傳遞

          論文解讀:KDD'18異質(zhì)信息網(wǎng)絡(luò)嵌入學(xué)習(xí)—HEER模型結(jié)構(gòu),解決存在多決種關(guān)系的問題

          論文解讀:KDD'19 Deep Learning on Graph 最佳論文:自然語(yǔ)言生成(NLG)任務(wù)

          論文解讀:圖表示學(xué)習(xí)中的對(duì)抗與攻擊KDD'18 Best Paper: Adversarial Attacks

          論文解讀:GMNN:圖馬爾可夫網(wǎng)絡(luò),關(guān)系數(shù)據(jù)進(jìn)行建模,變分EM框架訓(xùn)練模型

          論文解讀:普林斯頓高研院, 浙大, CMU和MIT聯(lián)合提出圖核函數(shù)與圖神經(jīng)網(wǎng)絡(luò)的融合方法

          論文解讀:NeurIPS'20|Hyperbolic Graph Convolutional Neural Networks

          論文解讀:ICCV'19 Workshop 論文解讀:用圖神經(jīng)網(wǎng)絡(luò)改善視頻的多標(biāo)簽分類

          方案解讀:CIKM'19 挑戰(zhàn)杯「用戶行為預(yù)測(cè)」冠軍方案分享:「初篩-精排」兩階求解框架

          論文解讀:KDD'19 | 圖神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)知識(shí)圖譜中的節(jié)點(diǎn)重要性

          論文解讀:圖系列|圖神經(jīng)常微分方程,如何讓 GNN 在連續(xù)深度域上大顯身手?

          論文解讀:ACL'19論文| 為知識(shí)圖譜添加注意力機(jī)制

          論文解讀:基于 GCN 的反垃圾評(píng)價(jià)系統(tǒng),閑魚已經(jīng)用上了!

          9 動(dòng)態(tài)時(shí)空?qǐng)D專題

          動(dòng)態(tài)圖系列|動(dòng)態(tài)圖嵌入與表示:8篇必讀論文(第1期)

          動(dòng)態(tài)圖系列|動(dòng)態(tài)知識(shí)圖譜預(yù)測(cè)與補(bǔ)全上必讀6篇論文

          動(dòng)態(tài)圖系列|動(dòng)態(tài)圖的研究漸漸多起來(lái)

          10 動(dòng)作識(shí)別專題

          圖系列|全面詳解!圖卷積在動(dòng)作識(shí)別方向的應(yīng)用(下)

          圖系列|全面詳解!圖卷積在動(dòng)作識(shí)別方向的應(yīng)用(上)

          圖系列|通過神經(jīng)網(wǎng)絡(luò)搜索(NAS)圖卷積網(wǎng)絡(luò)進(jìn)行人體骨骼的動(dòng)作識(shí)別

          11 代碼實(shí)戰(zhàn)教程

          圖代碼實(shí)戰(zhàn)|Amazon圖神經(jīng)網(wǎng)絡(luò)庫(kù)DGL零基礎(chǔ)上手指南-以節(jié)點(diǎn)分類為例

          圖代碼實(shí)戰(zhàn)|在PyTorch框架下使用PyG和networkx對(duì)Graph進(jìn)行可視化


          上面的內(nèi)容有點(diǎn)多,是不是看的有點(diǎn)懵,建議收藏一下。后期可以按照關(guān)鍵詞在深度學(xué)習(xí)與圖網(wǎng)絡(luò)公眾號(hào)歷史消息中進(jìn)行搜索就可以了。


          最后在說明一下哈,如果你也需要第三部分和第七部分的資料,在下面的公眾號(hào)領(lǐng)取。暗號(hào):圖網(wǎng)絡(luò)資料,拒絕任何套路,純干貨分享。

          瀏覽 51
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  操逼影音| 強奸乱伦麻豆 | 美日韩三级视频 | 国产精品免费人成人网站酒店 | 一区二区自拍偷拍0519 |