<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          MSRA研究獲ICCV 2021最佳論文,接收論文近半來自中國學(xué)者,臉部相關(guān)研究被拒率最高

          共 1758字,需瀏覽 4分鐘

           ·

          2021-10-17 01:04

          點擊上方視學(xué)算法”,選擇加"星標"或“置頂

          重磅干貨,第一時間送達

          博雯 發(fā)自 凹非寺
          量子位 報道 | 公眾號 QbitAI

          ICCV 2021最佳論文剛剛公布:

          中國學(xué)者憑借Swin Transformer獲此殊榮。

          這一研究由微軟亞研院(MSRA)提出,論文的四位共同一作分別是來自中國科學(xué)技術(shù)大學(xué)的劉澤、西安交通大學(xué)的林宇桐、以及MSRA的曹越和胡瀚。

          而根據(jù)本屆會議匯總,45.7%的接收論文來自中國,這個數(shù)量是第二位美國地區(qū)(23.6%)的近2倍。

          這屆會議中的最佳論文到底做了哪些貢獻,除此之外還頒布了哪些獎項,接收的論文又呈現(xiàn)出怎樣的趨勢?

          我們一一來看。

          最佳論文是MSRA成果

          獲最佳論文的Swin Transformer今年3月由微軟研究院提出,是一種基于Transformer的視覺骨干網(wǎng)絡(luò)。

          這一網(wǎng)絡(luò)基于分層特征圖,利用特征金字塔網(wǎng)絡(luò)(FPN)或U-Net等技術(shù)進行密集預(yù)測,同時將自注意力計算限制在不重疊的局部窗口中,同時允許跨窗口連接,從而帶來更高的效率。

          最終,Swin Transformer在分類、檢測、分割等各大CV任務(wù)中跨領(lǐng)域超車,一舉達到了SOTA。

          華人學(xué)者再中榮譽提名論文

          除了最佳論文外,最佳學(xué)生論文等獎項同樣受人矚目。

          最佳學(xué)生論文獎由四位來自蘇黎世聯(lián)邦理工學(xué)院(ETH Zurich)的學(xué)者獲得,他們提出了一種框架,能夠大幅度提升SFM建模精度與后續(xù)的視覺定位精度。

          榮譽提名論文共有4篇,其中第三篇OpenGAN的論文一作是來自卡內(nèi)基梅隆大學(xué)的華人學(xué)者Shu Kong。

          • Common Objects in 3D: Large-Scale Learning and Evaluation of Real-Life 3D Category Reconstruction

          • Viewing Graph Solvability via Cycle Consistency

          • OpenGAN: Open-Set Recognition via Open Data Generation

          • Mip-NeRF: A Multiscale Representation for Anti-Aliasing Neural Radiance Fields

          論文類獎項之后,再來看過往杰出研究類獎項(PAMI-TC)

          Azriel Rosenfeld終身成就獎,用于獎勵在長期職業(yè)生涯中為計算機視覺領(lǐng)域作出突出貢獻的杰出研究者,由加州大學(xué)伯克利分校的電氣工程和計算機科學(xué)教授RUzena Bajcsy獲得。

          杰出學(xué)者獎項,由加州理工學(xué)院的教授Pietro Perona,以及法國國家信息與自動化研究所(INRIA)研究員Cordelia Schmid獲得:

          ICCV Helmholtz獎項,主要之后針對那些對計算機視覺研究有重大意義的十年前的論文,由以下三篇論文獲得:

          ICCV Everingham獎則用于獎勵為計算機視覺社區(qū)作出無私而重要貢獻的研究個人或團隊,由KITTI 視覺基準團隊和Detectron對象檢測和分割軟件團隊獲得。


          接收率26%,姿態(tài)檢測“最容易中”

          本屆會議為期三天。據(jù)統(tǒng)計,ICCV 2021今年共接收有效稿件6152篇,比去年增加了1800篇。

          其中共有1612篇被收錄,接收率為26%,其中210篇論文為oral。

          會議上也統(tǒng)計了主會場的接收論文的分布領(lǐng)域,可以看到遷移\小樣本\無監(jiān)督學(xué)習(xí)領(lǐng)域的論文最多,超過了100篇:

          在所有論文中,姿態(tài)檢測、機器和自動駕駛視覺、視頻分析和理解等領(lǐng)域的論文的被接收率都較高,而與臉部相關(guān)的論文被拒率則最高。

          ICCV官網(wǎng):
          https://iccv2021.thecvf.com/home

          全論文整理:
          https://github.com/amusi/ICCV2021-Papers-with-Code

          本文系網(wǎng)易新聞?網(wǎng)易號特色內(nèi)容激勵計劃簽約賬號【量子位】原創(chuàng)內(nèi)容,未經(jīng)賬號授權(quán),禁止隨意轉(zhuǎn)載。


          點個在看 paper不斷!

          瀏覽 34
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  国产综合精品久久久久成人AV | 一卡二卡三卡高清无码视频 | 国产亚洲欧美精品久久 | 成人在线做爱 | 亚洲天堂不卡一区二区三区 |