18篇「AAAI2021」最新論文搶先看!看人工智能2021在研究什么?

??新智元報道??
??新智元報道??
來源:專知
編輯:SF
【新智元導讀】本文整理來自Twitter、arXiv、知乎放出來的最新AAAI2021論文,包括自監(jiān)督學習、知識蒸餾、對抗攻擊、領域自適應等。方便大家搶先閱覽!??

https://www.zhuanzhi.ai/paper/42ddafb6945128ad5addba30e924f401


https://www.zhuanzhi.ai/paper/df9fd0ff594591c5d35b4b679836d2ff
現(xiàn)有行人重新識別(ReID)模型的訓練目標是在當前批次樣本上模型的損失減少,而與其他批次樣本的性能無關。它將不可避免地導致模型過擬合到某些樣本(例如,不平衡類中的頭部數(shù)據(jù),簡單樣本或噪聲樣本)。
目前有基于采樣的方法通過設計特定準則來選擇特定樣本來解決該問題,這些方法對某些類型的數(shù)據(jù)(例如難樣本,尾部數(shù)據(jù))施加了更多的關注,這不適用于真實的ReID數(shù)據(jù)分布。
因此,本文將所選樣本的泛化能力作為損失函數(shù),并學習一個采樣器來自動選擇可泛化樣本,而不是簡單地推測哪些樣本更有意義。
更重要的是,我們提出的基于可泛化能力的采樣器可以無縫集成到ReID訓練框架中,該框架能夠以端到端的方式同時訓練ReID模型和采樣器。實驗結果表明,該方法可以有效地改善ReID模型的訓練,提高ReID模型的性能。

3.?自監(jiān)督對應學習的對比轉換,Contrastive Transformation for Self-supervised Correspondence Learning

https://www.zhuanzhi.ai/paper/449c58a142a4110ee7f089d12b51fdac

4.?小樣本學習多標簽意圖檢測

小樣本學習(Few-shot Learning)近年來吸引了大量的關注,但是針對多標簽問題(Multi-label)的研究還相對較少。
在本文中,我們以用戶意圖檢測任務為切入口,研究了的小樣本多標簽分類問題。對于多標簽分類的SOTA方法往往會先估計標簽-樣本相關性得分,然后使用閾值來選擇多個關聯(lián)的標簽。?
為了在只有幾個樣本的Few-shot場景下確定合適的閾值,我們首先在數(shù)據(jù)豐富的多個領域上學習通用閾值設置經(jīng)驗,然后采用一種基于非參數(shù)學習的校準(Calibration)將閾值適配到Few-shot的領域上。
為了更好地計算標簽-樣本相關性得分,我們將標簽名稱嵌入作為表示(Embedding)空間中的錨點,以優(yōu)化不同類別的表示,使它們在表示空間中更好的彼此分離。在兩個數(shù)據(jù)集上進行的實驗表明,所提出的模型在1-shot和5-shot實驗均明顯優(yōu)于最強的基線模型(baseline)。
https://www.zhuanzhi.ai/paper/caf3b2b72106ee93d00ddbe2416c4e1a

5.?組合對抗攻擊,Composite Adversarial Attacks

https://www.zhuanzhi.ai/paper/4594af42d79efb3a1090149653d332e6

6.?元學習器的冷啟動序列推薦,Cold-start Sequential Recommendation via Meta Learner

https://www.zhuanzhi.ai/paper/9e994364361a8060ccdd8be25b4398fd

7.?基于時空圖神經(jīng)網(wǎng)絡的視頻對象分割掩模重構,Spatiotemporal Graph Neural Network based Mask Reconstruction for Video Object Segmentation

地址:
https://www.zhuanzhi.ai/paper/9e3f128d37d0f1d1ae98fbcc2214944c
8.?領域自適應分割,Exploiting Diverse Characteristics and Adversarial Ambivalence for Domain Adaptive Segmentation

https://www.zhuanzhi.ai/paper/6a312cb480135d0521a9d9f5f6bbdc7c

9.?將神經(jīng)網(wǎng)絡解釋為定量論證框架,Interpreting Neural Networks as Quantitative Argumentation Frameworks

https://www.zhuanzhi.ai/paper/13e1eff13ab19fb000dd1c601b6b2972

10.?“可瘦身”的生成式對抗網(wǎng)絡,Slimmable Generative Adversarial Networks

生成式對抗網(wǎng)絡(GANs)近年來取得了顯著的進展,但模型規(guī)模的不斷擴大使其難以在實際應用中廣泛應用。特別是對于實時任務,由于不同的計算能力,不同的設備需要不同大小的模型。
在本文中,我們引入了“可瘦身”的GANs (slimmable GANs),它可以在運行時靈活地切換生成器的寬度(層的通道)以適應各種質量和效率的權衡。
具體地說,我們利用多個部分參數(shù)共享判別器來訓練“可瘦身”的生成器。為了促進不同寬度的生成器之間的一致性,我們提出了一種逐步替代蒸餾技術,鼓勵窄的生成器向寬的生成器學習。
至于類條件生成,我們提出了一種可分割的條件批處理規(guī)范化,它將標簽信息合并到不同的寬度中。我們的方法通過大量的實驗和詳細的消融研究得到了定量和定性的驗證。
https://www.zhuanzhi.ai/paper/fa7ad514cd791febd587068de1a7a6f5

11.?少樣本知識蒸餾,Progressive Network Grafting for Few-Shot Knowledge Distillation

https://www.zhuanzhi.ai/paper/63f75c9b913c204181b495ba440cc9f5

12.?用異構圖神經(jīng)網(wǎng)絡注入多源知識進行情感會話生成,Infusing Multi-Source Knowledge with Heterogeneous Graph Neural Network for Emotional Conversation Generation

https://www.zhuanzhi.ai/paper/27a8426b488cac9202ac642ce0625318

13.?自然語言處理中經(jīng)典的主題模型LDA針對規(guī)避攻擊的脆弱性,EvaLDA: Efficient Evasion Attacks Towards Latent Dirichlet Allocation

https://www.zhuanzhi.ai/paper/cd0c035fe877c46be9ae21fdce3f5963

14.?非可見區(qū)域分割,Amodal Segmentation Based on Visible Region Segmentation and Shape Prior

https://www.zhuanzhi.ai/paper/25abd8be695165f479e9abd9305fd2fa
本文針對非可見區(qū)域分割問題,我們提出在粗糙可見光和非可見掩模的基礎上,引入可見光區(qū)域和形狀先驗來推理非可見區(qū)域的統(tǒng)一框架。形狀先驗的引入使得非可見分割更加穩(wěn)健。我們提出的模型在三個數(shù)據(jù)集上均優(yōu)于現(xiàn)有方法。

15.?非重復多模態(tài)Transformer,Confidence-aware Non-repetitive Multimodal Transformers for TextCaps

https://www.zhuanzhi.ai/paper/5e39735d44cf3e82c8738e4da7e2840a

16.?帶變分貝葉斯推理和最大不確定性正則化的半監(jiān)督學習,Semi-Supervised Learning with Variational Bayesian Inference and Maximum Uncertainty Regularization

https://www.zhuanzhi.ai/paper/03927342b31ecbd7143b07c7b5c26614

17.?近似梯度下降的學習圖神經(jīng)網(wǎng)絡,Learning Graph Neural Networks with Approximate Gradient Descent

本文首先給出了一種學習節(jié)點信息卷積隱含層的圖網(wǎng)學習算法。根據(jù)標簽是附著在節(jié)點上還是附著在圖上,研究了兩種類型的GNN。在此基礎上,提出了一個完整的GNN訓練算法收斂性設計和分析框架。
該算法適用于廣泛的激活函數(shù),包括ReLU、Leaky ReLU、Sigmod、Softplus和Swish。實驗表明,該算法保證了對基本真實參數(shù)的線性收斂速度。對于這兩種類型的GNN,都用節(jié)點數(shù)或圖數(shù)來表征樣本復雜度。從理論上分析了特征維數(shù)和GNN結構對收斂率的影響。數(shù)值實驗進一步驗證了理論分析的正確性。
https://arxiv.org/pdf/2012.03429.pdf

18.?協(xié)同挖掘:用于稀疏注釋目標檢測的自監(jiān)督學習,Co-mining: Self-Supervised Learning for Sparsely Annotated Object Detection

目標檢測器通常在完全標注實例的監(jiān)督學習情況下獲得很好的結果。但是,對于稀疏實例注釋,它們的性能遠遠不能令人滿意?,F(xiàn)有的稀疏標注目標檢測方法主要是對難的負樣本的損失進行重加權,或者將未標注的實例轉換為忽略區(qū)域,以減少假陰性的干擾。我們認為這些策略是不夠的,因為它們最多可以減輕由于缺少注釋而造成的負面影響。
在本文中,我們提出了一個簡單而有效的機制,稱為協(xié)同挖掘,稀疏標注的目標檢測。在協(xié)同挖掘中,一個連體網(wǎng)絡的兩個分支相互預測偽標簽集。
為了增強多視圖學習和更好地挖掘未標記實例,將原始圖像和相應的增強圖像分別作為Siamese網(wǎng)絡的兩個分支的輸入。協(xié)同挖掘可以作為一種通用的訓練機制,應用于大多數(shù)現(xiàn)代目標檢測器。
在三種不同稀疏注釋設置的MS COCO數(shù)據(jù)集上進行了實驗,使用兩種典型的框架:基于錨的檢測器RetinaNet和無錨檢測器FCOS。實驗結果表明,與RetinaNet的協(xié)同挖掘方法相比,在相同的稀疏標注設置下,相比于不同的基線,改進了1.4%~2.1%,超過了現(xiàn)有的方法。
https://www.zhuanzhi.ai/paper/26fe94a8c64fbb5140619ab72ed036d1



