<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          通俗易懂理解~圖機(jī)器學(xué)習(xí)導(dǎo)論

          共 1494字,需瀏覽 3分鐘

           ·

          2021-09-03 14:58

          點(diǎn)擊上方小白學(xué)視覺”,選擇加"星標(biāo)"或“置頂

          重磅干貨,第一時(shí)間送達(dá)

          本文轉(zhuǎn)自|計(jì)算機(jī)視覺聯(lián)盟
          [ 導(dǎo)讀 ] 圖是強(qiáng)大的數(shù)據(jù)結(jié)構(gòu),可以被用于建模許多真實(shí)世界的場(chǎng)景。圖可以建模樣本之間的關(guān)系信息,然而,許多之前的機(jī)器學(xué)習(xí)模型忽略了關(guān)系信息或沒有很好地方法來建模關(guān)系信息。《圖機(jī)器學(xué)習(xí)導(dǎo)論》介紹了目前較新的基于圖的機(jī)器學(xué)習(xí)方法。


          圖是強(qiáng)大的數(shù)據(jù)結(jié)構(gòu),可以被用于建模許多真實(shí)世界的場(chǎng)景。目前,圖在生命科學(xué)、金融、社交網(wǎng)絡(luò)、用戶行為時(shí)序建模、區(qū)塊鏈等領(lǐng)域的機(jī)器學(xué)習(xí)應(yīng)用中都得到了廣泛的引用,并取得了非常好的效果。


          圖數(shù)據(jù)往往會(huì)包含大量有價(jià)值的關(guān)系數(shù)據(jù)。然而,許多之前的機(jī)器學(xué)習(xí)模型往往只關(guān)注每個(gè)樣本的特征,而沒有考慮到樣本之間的關(guān)系數(shù)據(jù)或沒有很好的方法來利用和建模這些關(guān)系數(shù)據(jù)。



          圖機(jī)器學(xué)習(xí)為我們提供了利用這些關(guān)系數(shù)據(jù)的方法,它使得我們可以同時(shí)考慮圖中每個(gè)節(jié)點(diǎn)的自身特征、鄰節(jié)點(diǎn)以及鄰節(jié)點(diǎn)的特征,以獲取更好的性能。


          圖機(jī)器學(xué)習(xí)的實(shí)現(xiàn)一般有兩種方法:
          • 將圖轉(zhuǎn)換為表格,用傳統(tǒng)成熟的機(jī)器學(xué)習(xí)方法實(shí)現(xiàn)
          • 將圖建模為網(wǎng)絡(luò),用目前較新的基于網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)方法實(shí)現(xiàn)



          DeepWalk、Node2Vec等基于Random Walk的網(wǎng)絡(luò)節(jié)點(diǎn)表示學(xué)習(xí)方法,屬于上述的第一種方法,它們利用Random Walk將網(wǎng)絡(luò)結(jié)構(gòu)轉(zhuǎn)換為序列,用成熟的skip-gram方法進(jìn)行求解。


          目前較為流行的圖神經(jīng)網(wǎng)絡(luò)屬于第二種方法,直接在網(wǎng)絡(luò)結(jié)構(gòu)上進(jìn)行機(jī)器學(xué)習(xí):



          《Introduction to graphs and machine learning》(《圖機(jī)器學(xué)習(xí)導(dǎo)論》)為我們介紹了圖機(jī)器學(xué)習(xí)的動(dòng)機(jī)與發(fā)展,包括網(wǎng)絡(luò)表示學(xué)習(xí)、圖神經(jīng)網(wǎng)絡(luò)等圖機(jī)器學(xué)習(xí)方法及其在問答、知識(shí)圖譜等領(lǐng)域的應(yīng)用。


          教程部分截圖如下所示:



          參考鏈接:

          https://conferences.oreilly.com/strata/strata-ny

          2019/public/schedule/detail/76557




          END

          下載1:OpenCV-Contrib擴(kuò)展模塊中文版教程
          在「小白學(xué)視覺」公眾號(hào)后臺(tái)回復(fù):擴(kuò)展模塊中文教程即可下載全網(wǎng)第一份OpenCV擴(kuò)展模塊教程中文版,涵蓋擴(kuò)展模塊安裝、SFM算法、立體視覺、目標(biāo)跟蹤、生物視覺、超分辨率處理等二十多章內(nèi)容。

          下載2:Python視覺實(shí)戰(zhàn)項(xiàng)目52講
          小白學(xué)視覺公眾號(hào)后臺(tái)回復(fù):Python視覺實(shí)戰(zhàn)項(xiàng)目即可下載包括圖像分割、口罩檢測(cè)、車道線檢測(cè)、車輛計(jì)數(shù)、添加眼線、車牌識(shí)別、字符識(shí)別、情緒檢測(cè)、文本內(nèi)容提取、面部識(shí)別等31個(gè)視覺實(shí)戰(zhàn)項(xiàng)目,助力快速學(xué)校計(jì)算機(jī)視覺。

          下載3:OpenCV實(shí)戰(zhàn)項(xiàng)目20講
          小白學(xué)視覺公眾號(hào)后臺(tái)回復(fù):OpenCV實(shí)戰(zhàn)項(xiàng)目20講即可下載含有20個(gè)基于OpenCV實(shí)現(xiàn)20個(gè)實(shí)戰(zhàn)項(xiàng)目,實(shí)現(xiàn)OpenCV學(xué)習(xí)進(jìn)階。

          交流群


          歡迎加入公眾號(hào)讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器自動(dòng)駕駛、計(jì)算攝影、檢測(cè)、分割、識(shí)別、醫(yī)學(xué)影像、GAN算法競(jìng)賽等微信群(以后會(huì)逐漸細(xì)分),請(qǐng)掃描下面微信號(hào)加群,備注:”昵稱+學(xué)校/公司+研究方向“,例如:”張三 + 上海交大 + 視覺SLAM“。請(qǐng)按照格式備注,否則不予通過。添加成功后會(huì)根據(jù)研究方向邀請(qǐng)進(jìn)入相關(guān)微信群。請(qǐng)勿在群內(nèi)發(fā)送廣告,否則會(huì)請(qǐng)出群,謝謝理解~


          瀏覽 52
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  极品人妻3p一人一次DVD | 欧美成人电影一区二区三区 | 日韩精品免费一区二区无码视频 | 色天堂在线观看 | 欧美亚黄片 |