<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          ECCV 2020 大獎出爐!李飛飛高徒鄧嘉及其學生共摘最佳論文獎,谷歌50篇一騎絕塵

          共 5122字,需瀏覽 11分鐘

           ·

          2020-08-26 03:08



          ??新智元報道??

          來源:ECCV

          編輯:雅新、依明

          【新智元導讀】兩年一度的ECCV 2020大獎終于來了!今年的最佳論文獎由普林斯頓大學Zachary Teed和鄧嘉摘得,還有最佳論文提名獎,Demo獎等五大獎項公布。?


          全球計算機視覺三大頂會之一,兩年一度的ECCV 2020(歐洲計算機視覺國際會議)于8月23日-28日召開。受到疫情影響,今年的ECCV首次以線上的形式舉行。
          ?
          剛剛,ECCV 2020一共公布了五項大獎項,分別是最佳論文獎、最佳論文提名獎、Koenderink獎、Mark Everingham 獎、Demo獎。
          ?
          今年的最佳論文獎由普林斯頓大學 Zachary Teed 及其導師鄧嘉摘得,來自卡內(nèi)基梅隆大學的一作華人學生 Mengtian Li 獲得最佳論文提名獎。
          ? ? ? ?


          五大獎項一覽:最佳論文、最佳論文提名、Demo論文

          ?

          最佳論文獎
          ?
          最佳論文獎由來自普林斯頓大學 Zachary Teed 和鄧嘉摘得,獲獎?wù)撐氖恰窻AFT:Recurrent All-Pairs Field Transforms for Optical Flow ?」。值得一提的是,鄧嘉正是 Zachary Teed 的導師,而鄧嘉曾師從李飛飛教授。
          ? ? ? ?論文鏈接:https://arxiv.org/pdf/2003.12039.pdf

          論文摘要:
          ?
          本篇論文主要介紹了一種新的光流深度網(wǎng)絡(luò)架構(gòu)——遞歸全對場變換(RAFT)。RAFT提取每個像素特征,為所有像素對構(gòu)建多尺度4D相關(guān)體,并通過一個循環(huán)單元迭代更新流場,該單元執(zhí)行相關(guān)體積的查找。
          ?
          這一架構(gòu)RAFT達到了SOTA的性能。
          ?
          在KITTI上,RAFT的F1-all誤差為5.10%,比已知的最佳結(jié)果6.10%,減少了16%。
          ?
          在Sintel上,RAFT獲得的end-point-error為2.855像素,比已知最佳結(jié)果4.098像素,減少了30%。
          ?
          此外,RAFT算法具有較強的跨數(shù)據(jù)集泛化能力,在推理時間、訓練速度、參數(shù)計數(shù)等方面具有較高的效率。
          ? ? ? ?項目地址:https://github.com/princeton-vl/RAFT

          論文第一作者 Zachary Teed 是來自普林斯頓大學在讀博士生,他的導師是鄧嘉。同時, Zachary Teed是普林斯頓視覺與學習實驗室(Princeton Vision & Learning Lab)的一名成員。他曾獲得圣路易斯華盛頓大學的計算機科學學士學位。他的研究重點:從3D視頻進行重建,包括運動,場景流和SLAM中的結(jié)構(gòu)。

          個人主頁:https://zachteed.github.io/
          ?
          我們熟知的鄧嘉正是李凱和李飛飛教授的學生,ImageNet 首篇文章的第一作者。
          ?
          鄧嘉現(xiàn)在在普林斯頓大學視覺與學習實驗室任助理教授,主要研究方向為計算機視覺和機器學習,即通過感知、認知和學習相結(jié)合來實現(xiàn)人類層面的視覺理解。

          個人主頁:https://www.cs.princeton.edu/~jiadeng/

          最佳論文提名獎
          ?
          今年有兩篇論文獲得了最佳論文提名獎:?
          ? ? ? ?

          論文一:「Towards Streaming Image Understanding」
          ? ? ? ?論文鏈接:https://arxiv.org/pdf/2005.10420.pdf

          論文摘要:
          ?
          這篇論文指出了標準離線評估和實時應用程序之間的一個差異,即當一個算法完成對特定圖像幀的處理時,周圍的世界已經(jīng)發(fā)生了變化。研究者提出了一種方法,將延遲和準確度統(tǒng)一到一個用于實時在線感知的指標中,并將其稱之為流式準確性(streaming accuracy)。
          ?
          此指標背后的關(guān)鍵洞察是在每個時刻聯(lián)合評估整個感知堆棧的輸出,迫使堆??紤]在進行計算時應忽略的流數(shù)據(jù)?;谶@個指標,研究者引入了一個元基準,它系統(tǒng)地將任何圖像理解任務(wù)轉(zhuǎn)換為流圖像理解任務(wù)。針對城市視頻流中的目標檢測和實例分割,提出了一種具有高質(zhì)量和時間密集標注的數(shù)據(jù)集。
          ?
          論文第一作者Mengtian Li是一位來自卡內(nèi)基梅隆大學機器人研究所的博士生,曾獲得南京大學學士學位。他的研究興趣是計算機視覺和機器學習,特別對資源受限的深度學習和推理感興趣。

          個人主頁:http://www.cs.cmu.edu/~mengtial/

          論文二:「NeRF:Representing Scenes as Neural Randince Fields for View Synthesis」
          ? ? ? ?

          論文摘要:
          ?
          研究者們提出了一種通過使用稀疏輸入視圖集優(yōu)化底層連續(xù)體積場景函數(shù)來獲得合成復雜場景新視圖的方法。研究者們描述了如何有效地優(yōu)化神經(jīng)輻射場,以渲染具有復雜幾何和外觀的真實感場景的新視圖,并展示了優(yōu)于先前神經(jīng)渲染和視圖合成的結(jié)果。
          ?
          Koenderink獎
          ?
          Koenderink獎是來表彰十年對計算機視覺領(lǐng)域做出巨大貢獻的經(jīng)典論文。今年Koenderink獎授予以下兩篇論文:
          ?
          論文一:「Improving the Fisher Kernel for Large-Scale Image Classification」
          ? ? ? ?論文鏈接:https://lear.inrialpes.fr/pubs/2010/PSM10/PSM10_0766.pdf

          論文摘要:
          ?
          Fisher內(nèi)核(FK)是一個通用框架,它結(jié)合了生成和區(qū)分方法的優(yōu)點。在圖像分類的背景下,F(xiàn)K被證明超越了計數(shù)統(tǒng)計,擴展了流行的視覺單詞包(BOV)。然而,在實踐中,這種豐富的代表性還沒有顯示出它優(yōu)于BOV。
          ?
          在第一部分中,研究者展示了在原始框架的基礎(chǔ)上,通過一些動機良好的修改,可以提高FK的準確性。
          ?
          在第二部分中,作為應用,研究者比較了ImageNet和flickrgroups這兩個豐富的標記圖像資源來學習分類器。在一項涉及數(shù)十萬個訓練圖像的評估,結(jié)果發(fā)現(xiàn),F(xiàn)lickr組中學習的分類器表現(xiàn)出色,而且它們可以補充在更仔細注釋的數(shù)據(jù)集上學習的分類器。
          ?
          論文二:「Brief:Binary robust independent elementary featueres」
          ? ? ? ?論文鏈接:https://www.cs.ubc.ca/~lowe/525/papers/calonder_eccv10.pdf

          論文摘要:
          ?
          研究者提出使用二進制字符串作為一個有效的特征點描述符,并將其稱之為BRIEF。
          ?
          研究表明,即使使用相對較少的比特,它仍然具有很高的分辨力,并且可以通過簡單的強度差分測試來計算。除此之外,可以使用漢明距離來評估描述符相似度,這是非常有效的計算,而不是像通常所用的L2范數(shù)。因此,BRIEF的構(gòu)建和匹配都非???。
          ?
          最后,研究人員將其與標準基準測試中的SURF和U-SURF進行了比較,結(jié)果表明它產(chǎn)生了相似或更好的識別性能,而運行時間只需其中一個的一小部分。
          ?
          Mark Everingham獎
          ?
          Mark獎的設(shè)立是為了紀念在2012去世的Mark Everingham,他在The PASCAL Visual Object Classes (VOA)數(shù)據(jù)集做出主要貢獻,也是該比賽項目的發(fā)起人。同時,Mark獎的設(shè)立也是為了激勵后來者在計算機視覺領(lǐng)域做出更多貢獻。
          ?
          今年第一位獲得PAMI Mark Everingham 獎的是 Antonio Torralba 和多數(shù)據(jù)集的合作者,為了表彰他們持續(xù)了十多年定期發(fā)布新的數(shù)據(jù)集和創(chuàng)建這些數(shù)據(jù)集的新方法。
          ?
          這些數(shù)據(jù)集包含Tiny images,SUN/SUN-3D,MIT-Places,創(chuàng)建數(shù)據(jù)集新方法的工具包括LabelMe,它們已經(jīng)在視覺領(lǐng)域影響深遠。

          個人主頁:https://groups.csail.mit.edu/vision/torralbalab/?

          今年第二位獲得PAMI Mark Everingham 獎的是 COLMAP SFM 和 MVS 軟件庫的提出人Johannes Schonberger,以表彰他為3D重建圖像提出的一個開源的端到端pipeline,并為之提供的支持、開發(fā)與編寫文檔。

          個人主頁:https://demuc.de/

          Demo獎
          ?
          「Inter-Homines: Distance-Based Risk Estimation for Human Safety」?
          ? ? ?論文鏈接:https://arxiv.org/pdf/2007.10243.pdf

          在新冠疫情肆意傳播情況下,本篇論文的研究者們提出了一個Inter-Homines系統(tǒng),該系統(tǒng)可以通過分析視頻流來實時評估受監(jiān)視區(qū)域中的傳染風險。


          Demo獎提名
          ?
          1 FingerTrack:Continous 3D Hand Pose Tracking
          論文鏈接:
          https://dl.acm.org/doi/abs/10.1145/3397306
          ?
          2 Object Detection Kit:Identifying Urban Issues in Real-time ?
          論文鏈接:
          https://dl.acm.org/doi/abs/10.1145/3372278.3390708


          ECCV 2020 華人學者入圍情況,阿里張磊位列第一

          據(jù)Aminer統(tǒng)計,來自阿里達摩院的張磊教授,共入選8篇論文,位列第一。
          ? ? ? ?

          排在第二位是澳大利亞阿德萊德大學教授沈春華,入選論文7篇。


          第三名是默罕默德·本·扎耶德人工智能大學副校長邵嶺教授入選論文共6篇。
          ? ? ? ?

          第四名是來自香港中文大學林達華教授,共有5篇論文入選。
          ? ? ? ?

          并列第五的華人學者有:來自華為諾亞方舟實驗室田奇和謝凌曦,微軟亞洲研究院王井東和Zheng Zhang,香港大學羅平。


          谷歌50篇一騎絕塵,深度學習和識別熱度不減

          近年來,計算機視覺大熱,直接導致三大頂會:ICCV、CVPR、ECCV的論文接收暴漲,可以用「爆倉」來形容。
          ?
          今年主辦方共收到5150篇有效文章,數(shù)據(jù)為ECCV 2018的兩倍還多,再創(chuàng)新高。最終有1360篇文章被接收發(fā)表,接收率僅26%,不到三成,較上屆31.8%有所下降。
          ?
          在最終接收論文中,Oral論文104篇,占提交總量的2%;Spotlights論文160篇,占提交總量的5%;剩余1096篇為poster。
          ? ? ? ?

          從每個領(lǐng)域的論文接收數(shù)量可以看出深度學習和識別在ECCV中仍是主要研究對象,機器學習位居第三。
          ? ? ? ?

          再從各個機構(gòu)錄取論文作者數(shù)量來看,谷歌,香港中文大學、北大、清華、Facebook居前五。
          ? ? ? ?

          據(jù)不完全統(tǒng)計,谷歌在本屆ECCV 2020會議上被接受的論文有50篇,F(xiàn)acebook約有41篇論文被接受。
          ?
          國內(nèi)機構(gòu)入選情況(據(jù)不完全統(tǒng)計):
          ?
          騰訊AI Lab(16篇)
          ?
          騰訊 AI Lab 共有 16 篇論文被 ECCV 2020 收錄,其中包括 1 篇 Oral 展示論文和 2 篇 Spotlight 展示論文,涵蓋騰訊AI Lab 近年來重點研究的多模態(tài)學習、視頻內(nèi)容理解、對抗攻擊與對抗防御、基于生成模型的圖像編輯等課題。
          ?
          曠視科技(15篇)
          ?
          曠視共有 15 篇成果入選,其中包含Oral 論文 2 篇、Spotlight 論文 1 篇,刷新了上屆入選 10 篇的紀錄。入選論文中涵蓋:圖像檢測、圖像對齊、姿態(tài)估計、激活函數(shù)、CNN架構(gòu)設(shè)計、動態(tài)網(wǎng)絡(luò)、NAS、知識蒸餾、點云配準、細粒度圖像檢索、遷移學習等眾多學術(shù)熱門領(lǐng)域,并取得突破性進展。
          ?
          百度(10篇)
          ?
          百度AI 團隊共入選10篇論文,其中1篇Oral和1篇Spotlight論文,涵蓋了自動駕駛識別&定位、聲源定位&場景識別、目標跟蹤、多模態(tài)&度量學習等眾多領(lǐng)域,彰顯了AI領(lǐng)軍者的風范和深厚的技術(shù)底蘊以及持續(xù)創(chuàng)新能力。
          ?
          騰訊優(yōu)圖(8篇)
          ?
          騰訊優(yōu)圖實驗室共入選8篇論文,涵蓋目標跟蹤、行人重識別、人臉識別、人體姿態(tài)估計、動作識別、物體檢測等熱門及前沿領(lǐng)域,再次展示了騰訊在計算機視覺領(lǐng)域的科研及創(chuàng)新實力。

          ?




          參考鏈接:

          https://eccv2020.eu/

          https://www.aminer.cn/conf/eccv2020


          瀏覽 45
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  欧美一区性爱 | 久久久无码人妻精品无码 | 国产一a毛一a毛A免费看图 | 天天操骚逼,人人玩骚逼。 | 九色婷婷影视 |