<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          多模態(tài),卷麻了

          共 1487字,需瀏覽 3分鐘

           ·

          2022-01-16 09:26

          大家好,我是DASOU.

          最近加我好友的朋友有點(diǎn)多,很多信息來不及回復(fù),多包涵吧。

          我們都知道,了解一下新的領(lǐng)域,最好的辦法就是去讀這個(gè)領(lǐng)域相關(guān)的論文。

          一般來說,是先看綜述文章,然后按照綜述文章的文獻(xiàn),找到自己感興趣的論文,去依次讀下來就可以了。

          那么就存在一個(gè)問題,這種綜述文章怎么找呢

          一般來說谷歌學(xué)術(shù)就夠了,或者在github上搜一下也能出來的。

          所以,今天給大家分享一個(gè)收藏已久的寶藏倉庫,是關(guān)于多模態(tài)方向的。

          這個(gè)項(xiàng)目的名稱是「awesome-multimodal-ml

          主要是對多模態(tài)各個(gè)方向的一些必讀經(jīng)典論文的匯總。

          內(nèi)容可以說是非常的全面了,項(xiàng)目大綱如下所示:

          • Survey Papers

          • Core Areas

            • Multimodal Representations

            • Multimodal Fusion

            • Multimodal Alignment

            • Multimodal Pretraining

            • Multimodal Translation

            • Crossmodal Retrieval

            • Missing or Imperfect Modalities

            • Analysis of Multimodal Models

            • Knowledge Graphs and Knowledge Bases

            • Intepretable Learning

            • Generative Learning

            • Semi-supervised Learning

            • Self-supervised Learning

            • Language Models

            • Adversarial Attacks

            • Few-Shot Learning

            • Bias and Fairness

            • Human in the Loop Learning

          • Architectures

            • Multimodal Transformers

            • Multimodal Memory

          • Applications and Datasets

            • Language and Visual QA

            • Language Grounding in Vision

            • Language Grouding in Navigation

            • Multimodal Machine Translation

            • Multi-agent Communication

            • Commonsense Reasoning

            • Multimodal Reinforcement Learning

            • Multimodal Dialog

            • Language and Audio

            • Audio and Visual

            • Media Description

            • Video Generation from Text

            • Affect Recognition and Multimodal Language

            • Healthcare

            • Robotics

            • Autonomous Driving

            • Finance

            • Human AI Interaction

          作者每個(gè)方向是按照時(shí)間降序排列的。

          大家可以根據(jù)自己感興趣的方向,挑選有用的一些論文,按照順序讀一下。

          項(xiàng)目地址:

          https://github.com/pliang279/awesome-multimodal-ml


          然后在推薦一下我自己的NLP學(xué)習(xí)倉庫。

          我把自己工作中的經(jīng)驗(yàn)以及對NLP前沿論文的解讀都放在了這個(gè)倉庫。

          目前已經(jīng)3.1K星標(biāo),感興趣的,后臺回復(fù)【倉庫】獲取對應(yīng)地址。

          瀏覽 83
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  jk自慰网站 | 无码一区二区吧 | 一区二区三区四区五区六区在线 | 中文字幕日韩在线视频 | 超碰毛片 |