<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          中科大劉澤博士一作斬獲 ICCV 2021 最佳論文獎(jiǎng)!中國(guó)學(xué)者占「半壁江山」

          共 5244字,需瀏覽 11分鐘

           ·

          2021-10-17 03:37



          ??新智元報(bào)道??

          來源:ICCV

          編輯:桃子 小咸魚

          【新智元導(dǎo)讀】ICCV 2021最佳論文新鮮出爐!微軟亞洲研究院團(tuán)隊(duì)拔得頭籌,獲得了最佳論文獎(jiǎng)。還有最佳學(xué)生論文,最佳論文榮譽(yù)提名,PAMI-TC獎(jiǎng)全公布。其中,中國(guó)學(xué)者數(shù)量幾乎占據(jù)半壁江山,超過美國(guó)近一半。


          ICCV 最佳論文來了!
          ?
          今年ICCV 2021公布了最佳論文獎(jiǎng)(馬爾獎(jiǎng)),最佳學(xué)生論文獎(jiǎng),最佳論文榮譽(yù)提名,PAMI-TC獎(jiǎng)多個(gè)獎(jiǎng)項(xiàng)。
          ?
          其中,微軟亞洲研究院團(tuán)隊(duì)拔得頭籌,獲得了最佳論文獎(jiǎng),論文一作為中科大劉澤。蘇黎世聯(lián)邦理工大學(xué)和微軟研究人員共同摘得最佳學(xué)生論文獎(jiǎng)。
          ?
          還有4篇最佳論文榮譽(yù)提名,PAMI-TC獎(jiǎng)分設(shè)的4個(gè)獎(jiǎng)項(xiàng)頒給了過往杰出研究的學(xué)者。
          ?
          ?
          作為計(jì)算機(jī)視覺領(lǐng)域三大會(huì)議之一的 ICCV(IEEE International Conference on Computer Vision)每年都會(huì)吸引眾多 AI 研究人員參會(huì)。
          ?
          不同于在美國(guó)每年召開一次的CVPR和只在歐洲召開的ECCV,ICCV在世界范圍內(nèi)每2年召開一次。
          ?

          獲獎(jiǎng)?wù)撐囊挥[:微軟亞洲研究院摘桂冠


          最佳論文獎(jiǎng)——馬爾獎(jiǎng)
          ?
          Swin Transformer: Hierarchical Vision Transformer Using Shifted Windows
          ?
          論文地址:https://arxiv.org/pdf/2103.14030.pdf
          ?
          這篇文章介紹了一種新的、可以應(yīng)用于計(jì)算機(jī)視覺里的Transformer,Swin Transformer。
          ?
          Transformer解決計(jì)算機(jī)視覺問題的挑戰(zhàn)主要來自兩個(gè)領(lǐng)域:圖像的比例差異很大,而且圖像具有很高的分辨率,在有些視覺任務(wù)和如語義分割中,像素級(jí)的密集預(yù)測(cè)對(duì)于Transformer來說是難以處理的,因?yàn)槠鋝elf-attention的計(jì)算復(fù)雜度與圖像大小成二次關(guān)系。
          ?
          ?
          為了克服這些問題,Swin Transformer構(gòu)建了分層Transformer特征圖,并采用移位窗口計(jì)算。移位窗口方案通過將self-attention計(jì)算限制在不重疊的局部窗口(用紅色標(biāo)出),同時(shí)還允許跨窗口連接,帶來了更高的效率。
          ?
          Swin Transformer通過從小尺寸的面片(用灰色勾勒)開始,并逐漸合并更深的Transformer層中的相鄰面片來構(gòu)建分層表示。這種分層體系結(jié)構(gòu)可以靈活地在各種尺度上建模,并且在圖像大小方面具有線性計(jì)算復(fù)雜度。線性計(jì)算復(fù)雜度是通過在分割圖像的非重疊窗口(用紅色標(biāo)出)內(nèi)局部計(jì)算自我注意來實(shí)現(xiàn)的。?每個(gè)窗口中的面片數(shù)量是固定的,因此復(fù)雜度與圖像大小成線性關(guān)系。
          ?
          Swin Transformer在圖像分類、目標(biāo)檢測(cè)和語義分割等識(shí)別任務(wù)上取得了很好的性能,在三個(gè)任務(wù)中,Swin Transformer的時(shí)間延遲與ViT,DeiT和ResNeXt模型相似,但性能卻得到了大幅提升:COCO test-dev 58.7 box AP和51.1 mask AP,力壓之前的最先進(jìn)結(jié)果2.7 box AP和2.6 mask AP。?在ADE20K語義分割任務(wù)中,Swin Transformer在驗(yàn)證集上獲得了53.5 mIoU,比以前的最先進(jìn)水平(SETR)提高了3.2 mIoU。?在ImageNet-1K圖像分類中,它也達(dá)到了87.3%的最高精度,充分展現(xiàn)Transformer模型作為新視覺backbone的潛力。
          ?
          該論文一作劉澤是中科大的學(xué)生,在微軟亞洲研究院實(shí)習(xí)。他于2019年獲中國(guó)科技大學(xué)學(xué)士學(xué)位,并以最高榮譽(yù)獲得郭沫若獎(jiǎng)學(xué)金。
          ?
          個(gè)人主頁(yè)介紹,其2篇論文和1篇Oral被ICCV2021接收。
          ?
          個(gè)人主頁(yè):https://zeliu98.github.io/
          ?
          最佳學(xué)生論文獎(jiǎng)

          Pixel-Perfect Structure-From-Motion With Featuremetric Refinement
          ?論文地址:https://arxiv.org/pdf/2108.08291.pdf

          ?找到跨多個(gè)視圖可重復(fù)的局部特征是稀疏三維重建的基石。經(jīng)典的圖像匹配范例一勞永逸地檢測(cè)每個(gè)圖像的關(guān)鍵點(diǎn),這可能產(chǎn)生定位不良的特征,并將大的誤差傳播到最終的幾何圖形。
          ?
          這篇文章通過直接對(duì)齊來自多個(gè)視圖的低級(jí)圖像信息來細(xì)化SfM(Structure-from-Motion),先在任何幾何估計(jì)之前調(diào)整初始關(guān)鍵點(diǎn)位置,然后細(xì)化點(diǎn)和相機(jī)姿勢(shì)作為后處理。
          ?
          本文認(rèn)為精確的大規(guī)模SfM(Structure-from-Motion)方法是使用稀疏的特征執(zhí)行初始粗略估計(jì),然后使用局部精確的密集特征進(jìn)行細(xì)化。這種改進(jìn)對(duì)于大的檢測(cè)噪聲和外觀變化是魯棒的,因?yàn)樗谏窠?jīng)網(wǎng)絡(luò)預(yù)測(cè)的密集特征來優(yōu)化特征度量誤差。這顯著提高了各種關(guān)鍵點(diǎn)檢測(cè)器的相機(jī)姿態(tài)和場(chǎng)景幾何的準(zhǔn)確性。
          ?
          最佳論文榮譽(yù)提名
          ?
          論文1: Mip-NeRF: A Multiscale Representation for Anti-Aliasing Neural Radiance Fields
          論文地址:https://arxiv.org/pdf/2103.13415.pdf
          ?
          谷歌和UC伯克利研人員在本文提出了一種名為「mip-NeRF」的擴(kuò)展解決方案。
          ?
          就NeRF來說,每條光線的像素渲染都需要查詢多層感知器上百次。而mip-NeRF的視線以連續(xù)值的比例表示場(chǎng)景,通過高效渲染消除反鋸齒圓錐錐體取代光線。
          ?
          ?
          研究結(jié)果表明,mip NeRF減少了混疊瑕疵,將NeRF表示精細(xì)細(xì)節(jié)的能力顯著提高,在速度上比NeRF快7%,大小僅為NeRF的一半。?此外,mip NeRF在數(shù)據(jù)集上降低了17%的平均錯(cuò)誤率,在多尺度變體上降低了60%的平均錯(cuò)誤率。
          ?
          論文2:?OpenGAN: Open-Set Recognition via Open Data Generation
          論文地址:https://arxiv.org/pdf/2104.02939.pdf
          ?
          機(jī)器學(xué)習(xí)過程中需要分析與訓(xùn)練數(shù)據(jù)不同的測(cè)試數(shù)據(jù)。為了和K閉集數(shù)據(jù)集區(qū)分,這通常在K-way分類中被表述為開集識(shí)別。
          ?
          一般來說,開集識(shí)別有2種處理方案。然而,由于過度擬合訓(xùn)練離散值,這2種方案一種不能很好地推廣到不同的開放測(cè)試數(shù)據(jù),而另一種由于GAN訓(xùn)練不穩(wěn)定導(dǎo)致效果不好。
          ?
          來自卡內(nèi)基梅隆大學(xué)的論文一作Shu Kong在本文中基于上述問題,提出了全新解決方案OpenGAN,它在三個(gè)方面不同于其他使用GAN的開集方法:通過學(xué)習(xí)一個(gè)魯棒的開集-閉集鑒別器充當(dāng)開集似然函數(shù);用假數(shù)據(jù)(由生成器合成)和真實(shí)的開集訓(xùn)練示例訓(xùn)練鑒別器;用OTS特征而不是RGB像素來訓(xùn)練GAN。
          ?
          OpenGAN在包括圖像分類和像素分割在內(nèi)的各種任務(wù)中,在開放集識(shí)別方面的性能明顯優(yōu)于先前的工作,證明了OpenGAN可以提高其他基于GAN的開集方法的準(zhǔn)確性。
          ??
          ?
          華人學(xué)者Shu Kong現(xiàn)在是卡內(nèi)基梅隆大學(xué)在讀計(jì)算機(jī)博士后。他的研究興趣包括計(jì)算機(jī)視覺、機(jī)器學(xué)習(xí)、以及其在現(xiàn)實(shí)世界中的應(yīng)用和整合。
          ?
          目前的研究重點(diǎn)為「visual perception and learning in an open world」,并在自己的書對(duì)這個(gè)內(nèi)容中簡(jiǎn)要地進(jìn)行了擴(kuò)展。
          ?
          個(gè)人主頁(yè):https://www.cs.cmu.edu/~shuk/
          ?
          還有另外兩篇論文獲得榮譽(yù)提名,如下:
          ?
          論文3: Viewing Graph Solvability via Cycle Consistency
          論文地址:
          https://openaccess.thecvf.com/content/ICCV2021/papers/Arrigoni_Viewing_Graph_Solvability_via_Cycle_Consistency_ICCV_2021_paper.pdf
          ?
          在SfM(Structure from Motion)中,觀察圖的頂點(diǎn)對(duì)應(yīng)攝像機(jī),邊代表基本矩陣。已知的理論要么不能完全表征所有觀察圖的可解性,要么非常難以計(jì)算,因?yàn)樗鼈冃枰蠼庖粋€(gè)含有大量未知數(shù)的多項(xiàng)式方程組。
          ?
          本文提供了一種新的公式和算法來確定觀察圖是否可解,即它唯一地確定一組投影攝像機(jī)。主要方式是利用循環(huán)一致性來減少未知量。
          ?
          這種算法分為三步走,第一步要分類九個(gè)節(jié)點(diǎn)內(nèi)的所有極小圖;第二步將實(shí)際的可解性測(cè)試擴(kuò)展到具有90個(gè)節(jié)點(diǎn)的最小圖;最后,證明有限可解性并不意味著可解來回答一個(gè)開放的研究問題。
          ?
          論文4: Common Objects in 3D: Large-Scale Learning and Evaluation of Real-Life 3D Category Reconstruction
          論文地址:https://arxiv.org/pdf/2109.00512.pdf
          ?
          由于真實(shí)的以類別為中心的三維標(biāo)注的數(shù)據(jù)不好獲取,如果要學(xué)習(xí)三維對(duì)象的類別,傳統(tǒng)方法主要在合成數(shù)據(jù)集上進(jìn)行訓(xùn)練和評(píng)估。
          ?
          這項(xiàng)工作的主要貢獻(xiàn)是收集了一個(gè)與現(xiàn)有合成數(shù)據(jù)相似的大規(guī)模真實(shí)數(shù)據(jù)集,名為Common Objects in 3D,包含用相機(jī)姿態(tài)和地面真實(shí)3D點(diǎn)云來標(biāo)注對(duì)象類別的真實(shí)多視圖圖像。該數(shù)據(jù)集總共包含來自近19000個(gè)視頻的150萬幀,對(duì)應(yīng)50個(gè)MS-COCO類別的對(duì)象。
          ?
          利用這個(gè)新數(shù)據(jù)集對(duì)幾種新的視圖合成和以類別為中心的三維重建方法進(jìn)行了第一次大規(guī)模的評(píng)估。論文還貢獻(xiàn)了NerFormer,一種新穎的神經(jīng)渲染方法,利用強(qiáng)大的Transformer在給定少量視圖的情況下重建對(duì)象。
          ?
          PAMI-TC 獎(jiǎng)
          ?
          和往年一樣,ICCV 21 還頒布了過往杰出研究類獎(jiǎng)項(xiàng) PAMI-TC 獎(jiǎng),其中包括4個(gè)獎(jiǎng)項(xiàng):Azriel Rosenfeld終身成就獎(jiǎng)、杰出學(xué)者獎(jiǎng),Everingham 獎(jiǎng)和ICCV Helmholtz 獎(jiǎng)。
          ?
          ?
          Azriel Rosenfeld終身成就獎(jiǎng)?lì)C發(fā)給了加州大學(xué)Berkeley 分校電氣工程與計(jì)算機(jī)科學(xué)系教授 RUzena Bajcsy,以表彰其長(zhǎng)期以來在計(jì)算機(jī)視覺領(lǐng)域所作出的重大貢獻(xiàn)。
          ?
          RUzena Bajcsy是美國(guó)的工程師和計(jì)算機(jī)科學(xué)家,任職加州大學(xué)伯克利分校。2001 年,她獲得了 ACM/人工智能促進(jìn)協(xié)會(huì) Allen Newell 獎(jiǎng),并在 2002 年 11 月的《探索》雜志上被評(píng)為科學(xué)界最重要的 50 位女性之一。

          由于她在機(jī)器人和自動(dòng)化領(lǐng)域的貢獻(xiàn),她獲得了本杰明富蘭克林計(jì)算機(jī)和認(rèn)知科學(xué)獎(jiǎng)?wù)拢?009 年)和 IEEE 機(jī)器人和自動(dòng)化獎(jiǎng)(2013 年)。
          ?
          ?
          杰出學(xué)者獎(jiǎng)項(xiàng)頒給了兩位研究者,加州理工學(xué)院教授Pietro Perona和法國(guó)國(guó)家信息與自動(dòng)化研究所研究員Cordelia Schmid。
          ?
          ?
          還有Everingham獎(jiǎng)?lì)C發(fā)給了KITTI 視覺基準(zhǔn)團(tuán)隊(duì)和Detectron對(duì)象檢測(cè)和分割軟件團(tuán)隊(duì)。
          ?
          今年ICCV Helmholtz 獎(jiǎng)?lì)C給了十年前對(duì)計(jì)算機(jī)視覺領(lǐng)域產(chǎn)生重大影響的三篇論文,以獎(jiǎng)勵(lì)對(duì)計(jì)算機(jī)視覺領(lǐng)域做出重要貢獻(xiàn)的工作。
          ?


          中國(guó)學(xué)者占據(jù)半壁江山,谷歌66篇一騎絕塵


          一直以來,ICCV論文錄用率非常低,卻是三大會(huì)議中公認(rèn)級(jí)別最高的。
          ?
          今年在論文收稿和入圍數(shù)量方面,ICCV 21共收到論文投稿6236篇,最終入圍1617篇,接收率約為 25.9%,較上屆的25%有所上升。
          ?
          ?
          就接收論文分布領(lǐng)域而言,接收數(shù)量都超過了80篇的領(lǐng)域有:遷移/小樣本/無監(jiān)督學(xué)習(xí)(Transfer/low-shot/unsupervised learning)、圖像視頻合成(image and video synthesis)、識(shí)別和分類(detection and localization in 2D and 3D) ,位列前三。
          ?
          還有一些新領(lǐng)域,比如關(guān)于可解釋性AI、公平、道德等相關(guān)主題論文數(shù)量也較往年有所上漲。
          ?
          ?
          就機(jī)構(gòu)組織來說,今年ICCV 上,谷歌近66篇論文入選,實(shí)力霸榜。
          ?
          國(guó)內(nèi),商湯科技及聯(lián)合實(shí)驗(yàn)室共計(jì)50篇論文入選ICCV 2021,同時(shí)在MFR、LPCV等多項(xiàng)重要競(jìng)賽中奪冠。
          ?
          放眼全球,中國(guó)論文數(shù)量幾乎占據(jù)了「半壁江山」(45.7%),趕超美國(guó)(23.6%)。
          ?
          ?
          據(jù)Aminer統(tǒng)計(jì),起源人工智能研究院的邵嶺教授,以及羅徹斯特大學(xué)助理教授Chenliang Xu,還有南京大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)系王利民共入選3篇,位列華人榜首。
          ?
          ?

          參考資料:

          https://www.aminer.cn/conf/iccv2021/roster
          https://twitter.com/CSProfKGD


          瀏覽 68
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  久久撸一撸视频 | 天天透天天干 | 亚洲AV在线免费观看 | 国产美女做爱A片是免费 | 国产喷水|