<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          18篇「AAAI2021」最新論文搶先看!看人工智能2021在研究什么?

          共 5491字,需瀏覽 11分鐘

           ·

          2020-12-21 10:12



          ??新智元報道??

          來源:專知

          編輯:SF

          【新智元導讀】本文整理來自Twitter、arXiv、知乎放出來的最新AAAI2021論文,包括自監(jiān)督學習、知識蒸餾、對抗攻擊、領域自適應等。方便大家搶先閱覽!??


          最近人工智能頂級會議AAAI2021接收結果已經(jīng)公布,一共有1692篇論文被接收,接收率為21%,相比去年的20.6%高0.4%,競爭越來越激烈。在這里我們整理來自Twitter、arXiv、知乎放出來的最新AAAI2021論文,方便大家搶先閱覽!



          1.?解耦場景和運動的無監(jiān)督視頻表征學習 Enhancing Unsupervised Video Representation Learning by Decoupling the Scene and the Motion

          https://www.zhuanzhi.ai/paper/42ddafb6945128ad5addba30e924f401


          相比于圖像表征學習,視頻表征學習中的一個重要因素是物體運動信息(Object Motion)。然而我們發(fā)現(xiàn), 在當前主流的視頻數(shù)據(jù)集中, 一些動作類別會和發(fā)生的場景強相關, 導致模型往往只關注了場景信息。

          比如,模型可能僅僅因為發(fā)生的場景是足球場,就將拉拉隊員在足球場上跳舞的視頻判斷成了踢足球。這違背了視頻表征學習最初的目的,即學習物體運動信息,并且不容忽視的是,不同的數(shù)據(jù)集可能會帶來不同的場景偏見(Scene Bias)。

          為了解決這個問題, 我們提出了用兩個簡單的操作來解耦合場景和運動(Decoupling the Scene and the Motion, DSM),以此來到達讓模型更加關注運動信息的目的。

          具體來說, 我們為每段視頻都會構造一個正樣本和一個負樣本,相比于原始視頻, 正樣本的運動信息沒有發(fā)生變化,但場景被破壞掉了,而負樣本的運動信息發(fā)生了改變,但場景信息基本被保留了下來。

          構造正負樣本的操作分別叫做Spatial Local Disturbance和Temporal Local Disturbance。我們的優(yōu)化目標是在隱空間在拉近正樣本和原始視頻的同時,推遠負樣本。用這種方式,場景帶來的負面影響被削弱掉了,而模型對時序也變得更加敏感。

          我們在兩個任務上,用不同的網(wǎng)絡結構、不同的預訓練數(shù)據(jù)集進行了實驗驗證,發(fā)現(xiàn)我們方法在動作識別任務上,在UCF101以及HMDB51數(shù)據(jù)集上分別超越當前學界領先水平8.1%以及8.8%。


          2.?基于可泛化樣本選擇的行人重識別方法,One for More: Selecting Generalizable Samples for Generalizable ReID Model

          https://www.zhuanzhi.ai/paper/df9fd0ff594591c5d35b4b679836d2ff


          現(xiàn)有行人重新識別(ReID)模型的訓練目標是在當前批次樣本上模型的損失減少,而與其他批次樣本的性能無關。它將不可避免地導致模型過擬合到某些樣本(例如,不平衡類中的頭部數(shù)據(jù),簡單樣本或噪聲樣本)。


          目前有基于采樣的方法通過設計特定準則來選擇特定樣本來解決該問題,這些方法對某些類型的數(shù)據(jù)(例如難樣本,尾部數(shù)據(jù))施加了更多的關注,這不適用于真實的ReID數(shù)據(jù)分布。


          因此,本文將所選樣本的泛化能力作為損失函數(shù),并學習一個采樣器來自動選擇可泛化樣本,而不是簡單地推測哪些樣本更有意義。


          更重要的是,我們提出的基于可泛化能力的采樣器可以無縫集成到ReID訓練框架中,該框架能夠以端到端的方式同時訓練ReID模型和采樣器。實驗結果表明,該方法可以有效地改善ReID模型的訓練,提高ReID模型的性能。



          3.?自監(jiān)督對應學習的對比轉換,Contrastive Transformation for Self-supervised Correspondence Learning

          https://www.zhuanzhi.ai/paper/449c58a142a4110ee7f089d12b51fdac



          4.?小樣本學習多標簽意圖檢測

          小樣本學習(Few-shot Learning)近年來吸引了大量的關注,但是針對多標簽問題(Multi-label)的研究還相對較少。


          在本文中,我們以用戶意圖檢測任務為切入口,研究了的小樣本多標簽分類問題。對于多標簽分類的SOTA方法往往會先估計標簽-樣本相關性得分,然后使用閾值來選擇多個關聯(lián)的標簽。?


          為了在只有幾個樣本的Few-shot場景下確定合適的閾值,我們首先在數(shù)據(jù)豐富的多個領域上學習通用閾值設置經(jīng)驗,然后采用一種基于非參數(shù)學習的校準(Calibration)將閾值適配到Few-shot的領域上。


          為了更好地計算標簽-樣本相關性得分,我們將標簽名稱嵌入作為表示(Embedding)空間中的錨點,以優(yōu)化不同類別的表示,使它們在表示空間中更好的彼此分離。在兩個數(shù)據(jù)集上進行的實驗表明,所提出的模型在1-shot和5-shot實驗均明顯優(yōu)于最強的基線模型(baseline)。


          https://www.zhuanzhi.ai/paper/caf3b2b72106ee93d00ddbe2416c4e1a



          5.?組合對抗攻擊,Composite Adversarial Attacks

          https://www.zhuanzhi.ai/paper/4594af42d79efb3a1090149653d332e6



          6.?元學習器的冷啟動序列推薦,Cold-start Sequential Recommendation via Meta Learner

          https://www.zhuanzhi.ai/paper/9e994364361a8060ccdd8be25b4398fd



          7.?基于時空圖神經(jīng)網(wǎng)絡的視頻對象分割掩模重構,Spatiotemporal Graph Neural Network based Mask Reconstruction for Video Object Segmentation

          地址:

          https://www.zhuanzhi.ai/paper/9e3f128d37d0f1d1ae98fbcc2214944c


          8.?領域自適應分割,Exploiting Diverse Characteristics and Adversarial Ambivalence for Domain Adaptive Segmentation

          https://www.zhuanzhi.ai/paper/6a312cb480135d0521a9d9f5f6bbdc7c


          9.?將神經(jīng)網(wǎng)絡解釋為定量論證框架,Interpreting Neural Networks as Quantitative Argumentation Frameworks

          https://www.zhuanzhi.ai/paper/13e1eff13ab19fb000dd1c601b6b2972


          10.?“可瘦身”的生成式對抗網(wǎng)絡,Slimmable Generative Adversarial Networks


          生成式對抗網(wǎng)絡(GANs)近年來取得了顯著的進展,但模型規(guī)模的不斷擴大使其難以在實際應用中廣泛應用。特別是對于實時任務,由于不同的計算能力,不同的設備需要不同大小的模型。


          在本文中,我們引入了“可瘦身”的GANs (slimmable GANs),它可以在運行時靈活地切換生成器的寬度(層的通道)以適應各種質量和效率的權衡


          具體地說,我們利用多個部分參數(shù)共享判別器來訓練“可瘦身”的生成器。為了促進不同寬度的生成器之間的一致性,我們提出了一種逐步替代蒸餾技術,鼓勵窄的生成器向寬的生成器學習。


          至于類條件生成,我們提出了一種可分割的條件批處理規(guī)范化,它將標簽信息合并到不同的寬度中。我們的方法通過大量的實驗和詳細的消融研究得到了定量和定性的驗證。


          https://www.zhuanzhi.ai/paper/fa7ad514cd791febd587068de1a7a6f5


          11.?少樣本知識蒸餾,Progressive Network Grafting for Few-Shot Knowledge Distillation

          https://www.zhuanzhi.ai/paper/63f75c9b913c204181b495ba440cc9f5



          12.?用異構圖神經(jīng)網(wǎng)絡注入多源知識進行情感會話生成,Infusing Multi-Source Knowledge with Heterogeneous Graph Neural Network for Emotional Conversation Generation

          https://www.zhuanzhi.ai/paper/27a8426b488cac9202ac642ce0625318


          13.?自然語言處理中經(jīng)典的主題模型LDA針對規(guī)避攻擊的脆弱性,EvaLDA: Efficient Evasion Attacks Towards Latent Dirichlet Allocation

          https://www.zhuanzhi.ai/paper/cd0c035fe877c46be9ae21fdce3f5963

          14.?非可見區(qū)域分割,Amodal Segmentation Based on Visible Region Segmentation and Shape Prior

          https://www.zhuanzhi.ai/paper/25abd8be695165f479e9abd9305fd2fa


          本文針對非可見區(qū)域分割問題,我們提出在粗糙可見光和非可見掩模的基礎上,引入可見光區(qū)域和形狀先驗來推理非可見區(qū)域的統(tǒng)一框架。形狀先驗的引入使得非可見分割更加穩(wěn)健。我們提出的模型在三個數(shù)據(jù)集上均優(yōu)于現(xiàn)有方法。


          15.?非重復多模態(tài)Transformer,Confidence-aware Non-repetitive Multimodal Transformers for TextCaps

          https://www.zhuanzhi.ai/paper/5e39735d44cf3e82c8738e4da7e2840a


          16.?帶變分貝葉斯推理和最大不確定性正則化的半監(jiān)督學習,Semi-Supervised Learning with Variational Bayesian Inference and Maximum Uncertainty Regularization

          https://www.zhuanzhi.ai/paper/03927342b31ecbd7143b07c7b5c26614


          17.?近似梯度下降的學習圖神經(jīng)網(wǎng)絡,Learning Graph Neural Networks with Approximate Gradient Descent


          本文首先給出了一種學習節(jié)點信息卷積隱含層的圖網(wǎng)學習算法。根據(jù)標簽是附著在節(jié)點上還是附著在圖上,研究了兩種類型的GNN。在此基礎上,提出了一個完整的GNN訓練算法收斂性設計和分析框架。


          該算法適用于廣泛的激活函數(shù),包括ReLU、Leaky ReLU、Sigmod、Softplus和Swish。實驗表明,該算法保證了對基本真實參數(shù)的線性收斂速度。對于這兩種類型的GNN,都用節(jié)點數(shù)或圖數(shù)來表征樣本復雜度。從理論上分析了特征維數(shù)和GNN結構對收斂率的影響。數(shù)值實驗進一步驗證了理論分析的正確性。


          https://arxiv.org/pdf/2012.03429.pdf


          18.?協(xié)同挖掘:用于稀疏注釋目標檢測的自監(jiān)督學習,Co-mining: Self-Supervised Learning for Sparsely Annotated Object Detection


          目標檢測器通常在完全標注實例的監(jiān)督學習情況下獲得很好的結果。但是,對于稀疏實例注釋,它們的性能遠遠不能令人滿意?,F(xiàn)有的稀疏標注目標檢測方法主要是對難的負樣本的損失進行重加權,或者將未標注的實例轉換為忽略區(qū)域,以減少假陰性的干擾。我們認為這些策略是不夠的,因為它們最多可以減輕由于缺少注釋而造成的負面影響。


          在本文中,我們提出了一個簡單而有效的機制,稱為協(xié)同挖掘,稀疏標注的目標檢測。在協(xié)同挖掘中,一個連體網(wǎng)絡的兩個分支相互預測偽標簽集。


          為了增強多視圖學習和更好地挖掘未標記實例,將原始圖像和相應的增強圖像分別作為Siamese網(wǎng)絡的兩個分支的輸入。協(xié)同挖掘可以作為一種通用的訓練機制,應用于大多數(shù)現(xiàn)代目標檢測器。


          在三種不同稀疏注釋設置的MS COCO數(shù)據(jù)集上進行了實驗,使用兩種典型的框架:基于錨的檢測器RetinaNet和無錨檢測器FCOS。實驗結果表明,與RetinaNet的協(xié)同挖掘方法相比,在相同的稀疏標注設置下,相比于不同的基線,改進了1.4%~2.1%,超過了現(xiàn)有的方法。


          https://www.zhuanzhi.ai/paper/26fe94a8c64fbb5140619ab72ed036d1









          瀏覽 58
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  免费在线国产视频 | 韩日一级视频 | 高清在线视频一区 | 欧美性爱视频AAA | 免费国产一级黄色电影 |