<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          CVPR 2021大獎公布!何愷明獲最佳論文提名,代碼已開源!

          共 5782字,需瀏覽 12分鐘

           ·

          2021-06-23 17:26




            新智元報道  

          來源:CVPR2021

          編輯:小勻,LQ

          【新智元導讀】昨晚,CV界三大頂會之一的2021CVPR在clubhouse拉開了帷幕。今年,會議收到了21000名作者的7000篇投稿,經過7400名審稿人和280名區(qū)域主席的審查,最終有1600篇論文被接收,接收率約0.24。 其中,何愷明團隊論文獲得了「最佳論文提名」。


          CVPR 2021 來了!


          推特上,有學者打趣說,CV論文可以分為這幾類:「只想混文憑」、「教電腦生成更多貓的照片」、「ImageNet上實驗結果提升0.1%!」、「手握超酷數(shù)據(jù)集但并不打算公開」、「3年過去了,代碼仍在趕來的路上」、「實驗證明還是老baseline性能更?!埂ⅰ肝覀兊臄?shù)據(jù)集更大!」、「研究范圍超廣,無他,我們有錢」、「花錢多,結果好」......


          僅為調侃,請勿對號入座。


          圖源:Jia-Bin Huang的推特


          不過,言歸正傳,讓我們來看看今年被CVPR選中的都有哪些幸運論文。


          2021 CVPR 論文獎


          最佳論文獎(Best Paper)


          今年的最佳論文是馬克斯·普朗克智能系統(tǒng)研究所和蒂賓根大學團隊的Michael Niemeyer, Andreas Geiger,他們的論文是

          GIRAFFE: Representing Scenes as Compositional Generative Neural Feature Fields(GIRAFFE:將場景表現(xiàn)為組合生成的神經特征場)


          https://arxiv.org/abs/2011.12100


          論文簡介:


          深度生成模型可以在高分辨率下進行逼真的圖像合成。但對于許多應用來說,這還不夠:內容創(chuàng)作還需要可控。雖然最近有幾項工作研究了如何分解數(shù)據(jù)中的潛在變化因素,但它們大多在二維中操作,忽略了我們的世界是三維的。此外,只有少數(shù)作品考慮到了場景的組成性質。我們的關鍵假設是,將組合式三維場景表示納入生成模型,可以使圖像合成更加可控。將場景表示為生成性神經特征場,使我們能夠從背景中分離出一個或多個物體,以及單個物體的形狀和外觀,同時無需任何額外的監(jiān)督就能從非結構化和unposed的圖像集中學習。將這種場景表示與神經渲染管道結合起來,可以產生一個快速而真實的圖像合成模型。正如我們的實驗所證明的那樣,我們的模型能夠分解單個物體,并允許在場景中平移和旋轉它們,還可以改變攝像機的姿勢。


          最佳論文榮譽提名(Best Paper Honorable Mentions)


          何愷明和Xinlei Chen的論文Exploring Simple Siamese Representation Learning(探索簡單的連體表征學習)獲得了最佳論文提名。


          https://arxiv.org/abs/2011.10566


          論文主要研究了:


          「連體網絡」(Siamese networks)已經成為最近各種無監(jiān)督視覺表征學習模型中的一種常見結構。這些模型最大限度地提高了一個圖像的兩個增量之間的相似性,但必須符合某些條件以避免collapse的解決方案。在本文中,我們報告了令人驚訝的經驗結果,即簡單的連體網絡即使不使用以下任何一種情況也能學習有意義的表征。(i) 負樣本對,(ii) 大batch,(iii) 動量編碼器。我們的實驗表明,對于損失和結構來說,collapse的解決方案確實存在,但stop-gradient操作在防止collapse方面發(fā)揮了重要作用。我們提供了一個關于stop-gradient含義的假設,并進一步展示了驗證該假設的概念驗證實驗。我們的 「SimSiam 」方法在ImageNet和下游任務中取得了有競爭力的結果。我們希望這個簡單的基線能促使人們重新思考連體結構在無監(jiān)督表征學習中的作用。


          代碼已開源 https://github.com/facebookresearch/simsiam



          另一篇最佳論文提名是明尼蘇達大學團隊Yasamin Jafarian, Hyun Soo Park的

          Learning High Fidelity Depths of Dressed Humans by Watching Social Media Dance Videos


          https://arxiv.org/abs/2103.03319


          最佳學生論文獎(Best Student Paper)


          Task Programming: Learning Data Efficient Behavior Representations(任務編程:學習數(shù)據(jù)有效的行為表征)


          作者團隊來自加州理工和西北大學——Jennifer J. Sun, Ann Kennedy, Eric Zhan, David J. Anderson, Yisong Yue, Pietro Perona


          https://openaccess.thecvf.com/content/CVPR2021/html/Sun_Task_Programming_Learning_Data_Efficient_Behavior_Representations_CVPR_2021_paper.html


          論文簡介:


          專門的領域知識對于準確注釋用于深度分析訓練集來說往往是必要的,但從領域專家那里獲得這些知識可能會很麻煩,而且耗時。這個問題在自動行為分析(automated behavior analysis)中非常突出,在自動行為分析中,從視頻跟蹤數(shù)據(jù)中檢測出代理的運動或感興趣的行動。為了減少注釋工作,我們提出了TREBA:一種基于多任務自監(jiān)督學習的學習注釋-樣本高效軌跡嵌入(annotation-sample efficient trajectory embedding)的方法,用于行為分析。我們的方法中的任務可以由領域專家通過我們稱之為 「任務編程」(task programming)的過程進行有效設計,該過程使用程序對領域專家的結構化知識進行明確編碼。通過用數(shù)據(jù)注釋時間換取少量編程任務的構建,可以減少領域專家的總工作量。我們使用行為神經科學的數(shù)據(jù)來評估這種trade-off,在這些數(shù)據(jù)中,專門的領域知識被用來識別行為。我們在兩個領域的三個數(shù)據(jù)集中展示了實驗結果:小鼠和果蠅。與最先進的特征相比,使用TREBA的嵌入,我們將注釋負擔減少了「10倍」,然而并不影響準確性。因此,我們的結果表明,任務編程和自我監(jiān)督可以成為減少領域專家注釋工作的有效途徑。


          最佳學生論文榮譽提名(Best Student Paper Honorable Mentions)


          獲得「最佳學生論文」提名的有三篇


          Less is More: ClipBERT for Video-and-Language Learning via Sparse Sampling(少即是多:通過稀疏取樣進行視頻和語言學習的ClipBERT)


          作者團隊來自北卡羅來納大學教堂山分校和Microsoft Dynamics 365 AI Research的Jie Lei, Linjie Li, Luowei Zhou, Zhe Gan, Tamara L. Berg, Mohit Bansal, Jingjing Liu


          https://openaccess.thecvf.com/content/CVPR2021/html/Lei_Less_Is_More_ClipBERT_for_Video-and-Language_Learning_via_Sparse_Sampling_CVPR_2021_paper.html


          Binary TTC: A Temporal Geofence for Autonomous Navigation(二進制TTC:用于自主導航的時間地理圍欄)


          作者團隊來自英偉達和加州大學圣巴巴拉分校的Abhishek Badki, Orazio Gallo, Jan Kautz, Pradeep Sen


          https://openaccess.thecvf.com/content/CVPR2021/html/Badki_Binary_TTC_A_Temporal_Geofence_for_Autonomous_Navigation_CVPR_2021_paper.html


          Real-Time High-Resolution Background Matting(實時高分辨率的背景消隱)


          作者團隊來自華盛頓大學的Shanchuan Lin, Andrey Ryabtsev, Soumyadip Sengupta, Brian Curless, Steve Seitz, Ira Kemelmacher-Shlizerman

           

          https://openaccess.thecvf.com/content/CVPR2021/papers/Lin_Real-Time_High-Resolution_Background_Matting_CVPR_2021_paper.pdf

           

          最佳論文評選委員會


          以上最佳(學生)論文及提名由以下委員會評選:Deva Ramanan (主席),Lourdes Agapito, Zeynep Akata, Karteek Alahari, Xilin Chen, Emily Denton, Piotr Dollar, Ivan Laptev, Kyoung Mu Lee


          其中,中科院計算所視覺信息處理與學習組的陳熙霖博士是委員會成員。



          陳熙霖博士,研究員,ACM Fellow, IEEE Fellow, IAPR Fellow, 中國計算機學會會士,國家杰出青年基金獲得者。主要研究領域為計算機視覺、模式識別、多媒體技術以及多模式人機接口。先后主持多項自然科學基金重大、重點項目、973計劃課題等項目的研究。


          曾任IEEE Trans. on Image Processing和IEEE Trans. on Multimedia的Associate Editor,目前是Journal of Visual Communication and Image Representation的Associate Editor、計算機學報副主編、人工智能與模式識別副主編,擔任過FG2013 / FG 2018 General Chair以及CVPR 2017 / 2019 / 2020, ICCV 2019等的Area Chair。


          陳熙霖博士先后獲得國家自然科學二等獎1項,國家科技進步二等獎4項,省部級科技進步獎九項。合作出版專著1本,在國內外重要刊物和會議上發(fā)表論文200多篇。


          PAMITC 獎(PAMITC AWARDS)


          除了最佳(學生)論文獎外,還有以下幾項大獎:


          朗格-希金斯獎(Longuet-Higgins Prize)


          該獎項以理論化學家和認知科學家H. Christopher Longuet-Higgins的名字命名,表彰十年前對計算機視覺研究產生重大影響的CVPR 論文。



          本屆委員會成員:W. Freeman (主席), J. Barron, D. Damen, D. Hoiem, K. Saenko


          獲獎論文:


          1 Real-time human pose recognition in parts from single depth image(從單一深度圖像中實時識別人體姿勢的部位)


          作者來自微軟:Jamie Shotton, Andrew Fitzgibbon, Mat Cook, Toby Sharp, Mark Finocchio, Richard Moore, Alex Kipman, Andrew Blake



          2 Baby talk: Understanding and generating simple image descriptions(嬰兒談話:理解和生成簡單的圖像描述)


          作者來自石溪大學:Girish Kulkarni, Visruth Premraj, Sagnik Dhar, Siming Li, Yejin Choi,  Alexander C. Berg, Tamara L. Berg



          青年研究者獎(Young Researcher Awards)


          該年度獎項旨在表彰對計算機視覺做出杰出研究貢獻的年輕研究人員。


          本屆委員會:R. Zabih (主席), S. Lazebnik, G. Medioni, N. Paragios, S. Seitz


          獲獎者:


          1 Georgia Gkioxari, Facebook AI Research (FAIR)



          2 Phillip Isola, MIT



          首屆黃煦濤紀念獎(Inaugural Thomas Huang Memorial Prize)


          值得注意的是,本屆黃煦濤紀念獎為首屆,以華裔信息學家命名。這個新的年度獎項將表彰在研究、教育和為計算機視覺界服務方面被認為是榜樣的研究人員。



          獲獎者:Antonio Torralba, MIT



          委員會:T. Tuytelaars (聯(lián)合主席), R. Zabih (聯(lián)合主席), M. Black, R. Chellappa, A. Fitzgibbon, D. Fleet, E. Grimson, R. Hartley, K.M. Lee, C. Schmid, H. Shi


          CVPR2021日程


          今年的會議從19-25日,會議內容如下:



          其中,陳天奇也將會做客panel session分享未來的計算機視覺的機器學習基礎設施。





          參考資料:

          http://cvpr2021.thecvf.com

          -往期精彩-



          瀏覽 97
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  欧美一级AA大片免费看视频 | 亚洲男人的天堂在线视频 | 国产一区二区三区视频在线播放 | 特级西西西西4444级酉西88wwww特 | 亚洲理论片 |