【論文解讀】ICLR 2021丨當(dāng)梯度提升遇到圖神經(jīng)網(wǎng)絡(luò),“魚和熊掌”皆可兼得
論文:https://arxiv.org/pdf/2101.08543.pdf 代碼:https://github.com/nd7141/bgnn
無論是分子設(shè)計(jì)、計(jì)算機(jī)視覺,還是組合優(yōu)化和推薦系統(tǒng)等,圖神經(jīng)網(wǎng)絡(luò)( GNNs,Graph Neural Networks )都在學(xué)習(xí)圖結(jié)構(gòu)化數(shù)據(jù)方面取得了巨大的成功。
而在 ICLR 2021 文章 Boost Then Convolve: Gradient Boosting Meets Graph Neural Networks 中,作者 Sergei Ivanov 、 Liudmila Prokhorenkova 提出了一種新穎的架構(gòu),可以聯(lián)合訓(xùn)練 GBDT 和 GNN 以獲得兩者的優(yōu)點(diǎn):GBDT 模型處理異構(gòu)特征,而 GNN 負(fù)責(zé)圖結(jié)構(gòu)。

各自長(zhǎng)短
中選擇的弱學(xué)習(xí)者,
來近似損失函數(shù) L w.r.t 的負(fù)梯度。
的集合通常由淺層的決策樹構(gòu)成。決策樹是通過將特征空間遞歸劃分成稱為葉子的不相交區(qū)域來建立的。




往期精彩回顧
本站qq群704220115,加入微信群請(qǐng)掃碼:
評(píng)論
圖片
表情

