MSRA研究獲ICCV 2021最佳論文,接收論文近半來自中國學(xué)者,臉部相關(guān)研究被拒率最高
點擊上方“視學(xué)算法”,選擇加"星標"或“置頂”
重磅干貨,第一時間送達
博雯 發(fā)自 凹非寺
量子位 報道 | 公眾號 QbitAI
ICCV 2021最佳論文剛剛公布:
中國學(xué)者憑借Swin Transformer獲此殊榮。
這一研究由微軟亞研院(MSRA)提出,論文的四位共同一作分別是來自中國科學(xué)技術(shù)大學(xué)的劉澤、西安交通大學(xué)的林宇桐、以及MSRA的曹越和胡瀚。

而根據(jù)本屆會議匯總,45.7%的接收論文來自中國,這個數(shù)量是第二位美國地區(qū)(23.6%)的近2倍。

這屆會議中的最佳論文到底做了哪些貢獻,除此之外還頒布了哪些獎項,接收的論文又呈現(xiàn)出怎樣的趨勢?
我們一一來看。
最佳論文是MSRA成果
獲最佳論文的Swin Transformer今年3月由微軟研究院提出,是一種基于Transformer的視覺骨干網(wǎng)絡(luò)。

這一網(wǎng)絡(luò)基于分層特征圖,利用特征金字塔網(wǎng)絡(luò)(FPN)或U-Net等技術(shù)進行密集預(yù)測,同時將自注意力計算限制在不重疊的局部窗口中,同時允許跨窗口連接,從而帶來更高的效率。
最終,Swin Transformer在分類、檢測、分割等各大CV任務(wù)中跨領(lǐng)域超車,一舉達到了SOTA。

華人學(xué)者再中榮譽提名論文
除了最佳論文外,最佳學(xué)生論文等獎項同樣受人矚目。
最佳學(xué)生論文獎由四位來自蘇黎世聯(lián)邦理工學(xué)院(ETH Zurich)的學(xué)者獲得,他們提出了一種框架,能夠大幅度提升SFM建模精度與后續(xù)的視覺定位精度。

榮譽提名論文共有4篇,其中第三篇OpenGAN的論文一作是來自卡內(nèi)基梅隆大學(xué)的華人學(xué)者Shu Kong。
Common Objects in 3D: Large-Scale Learning and Evaluation of Real-Life 3D Category Reconstruction
Viewing Graph Solvability via Cycle Consistency
OpenGAN: Open-Set Recognition via Open Data Generation
Mip-NeRF: A Multiscale Representation for Anti-Aliasing Neural Radiance Fields

論文類獎項之后,再來看過往杰出研究類獎項(PAMI-TC):
Azriel Rosenfeld終身成就獎,用于獎勵在長期職業(yè)生涯中為計算機視覺領(lǐng)域作出突出貢獻的杰出研究者,由加州大學(xué)伯克利分校的電氣工程和計算機科學(xué)教授RUzena Bajcsy獲得。

杰出學(xué)者獎項,由加州理工學(xué)院的教授Pietro Perona,以及法國國家信息與自動化研究所(INRIA)研究員Cordelia Schmid獲得:

ICCV Helmholtz獎項,主要之后針對那些對計算機視覺研究有重大意義的十年前的論文,由以下三篇論文獲得:

ICCV Everingham獎則用于獎勵為計算機視覺社區(qū)作出無私而重要貢獻的研究個人或團隊,由KITTI 視覺基準團隊和Detectron對象檢測和分割軟件團隊獲得。


接收率26%,姿態(tài)檢測“最容易中”
本屆會議為期三天。據(jù)統(tǒng)計,ICCV 2021今年共接收有效稿件6152篇,比去年增加了1800篇。
其中共有1612篇被收錄,接收率為26%,其中210篇論文為oral。

會議上也統(tǒng)計了主會場的接收論文的分布領(lǐng)域,可以看到遷移\小樣本\無監(jiān)督學(xué)習(xí)領(lǐng)域的論文最多,超過了100篇:

在所有論文中,姿態(tài)檢測、機器和自動駕駛視覺、視頻分析和理解等領(lǐng)域的論文的被接收率都較高,而與臉部相關(guān)的論文被拒率則最高。

ICCV官網(wǎng):
https://iccv2021.thecvf.com/home
全論文整理:
https://github.com/amusi/ICCV2021-Papers-with-Code
— 完 —
本文系網(wǎng)易新聞?網(wǎng)易號特色內(nèi)容激勵計劃簽約賬號【量子位】原創(chuàng)內(nèi)容,未經(jīng)賬號授權(quán),禁止隨意轉(zhuǎn)載。

點個在看 paper不斷!
