<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          1357篇ECCV 2020論文打包下載!獎項公布:李飛飛高徒獲最佳論文獎

          共 5301字,需瀏覽 11分鐘

           ·

          2020-08-27 20:42

          點擊上方AI算法與圖像處理”,選擇加"星標"或“置頂”

          重磅干貨,第一時間送達

          部分內(nèi)容來源丨機器之心
          編輯|極市平臺

          極市導讀

          ?
          昨日,ECCV 2020五項大獎出爐,分別是最佳論文獎、最佳論文提名獎、Koenderink獎、Mark Everingham獎、Demo獎,ImageNet 論文一作鄧嘉獲最佳論文獎。另外,ECCV2020全部論文已開放下載。

          ECCV2020論文合集下載


          ECCV2020論文現(xiàn)已開放下載,地址為:
          http://www.ecva.net/papers.php
          為了方便大家學習,極市已經(jīng)將全部論文(共1357篇)下載并打包,在?AI算法與圖像處理?后臺回復?ECCV2020?即可獲取論文打包下載鏈接。
          下面將介紹本次ECCV2020的五項大獎。(內(nèi)容來源:機器之心)

          最佳論文獎



          • 論文地址:https://arxiv.org/abs/2003.12039

          • GitHub 地址:https://github.com/princeton-vl/RAFT


          這項研究提出了一種用于光流的新型深度網(wǎng)絡架構——循環(huán)全對場變換(Recurrent All-Pairs Field Transforms,RAFT)。RAFT 提取每個像素(per-pixel)的特征,為所有像素對構建多尺度 4D 相關體(correlation volume),并通過循環(huán)單元迭代地更新流場,循環(huán)單元基于相關體執(zhí)行查找。

          RAFT 在多個數(shù)據(jù)集上實現(xiàn)了 SOTA 性能:在 KITTI 數(shù)據(jù)集上,RAFT 的 F1-all 誤差是 5.10%,相比先前的最佳結(jié)果(6.10%)減少了 16%;在 Sintel 數(shù)據(jù)集(final pass)上,RAFT 只有 2.855 像素的端點誤差(end-point-error),相比先前的最佳結(jié)果(4.098 像素)減少了 30%。另外,RAFT 具有強大的跨數(shù)據(jù)集泛化能力,并且在推理時間、訓練速度和參數(shù)計數(shù)方面具有很高的效率。

          RAFT 架構設計。

          4.8M 參數(shù)完整版模型和 1.0M 參數(shù)小模型的網(wǎng)絡架構細節(jié)。

          作者簡介


          最佳論文的第一作者 Zachary Teed 現(xiàn)在普林斯頓讀博,導師為鄧嘉。他的研究興趣是:3D 視頻重建,包括運動恢復結(jié)構(Structure from Motion,SfM)、場景流(Scene Flow)和 SLAM。


          論文二作是普林斯頓大學計算機科學系助理教授鄧嘉,主要研究方向是計算機視覺和機器學習,
          目前的研究興趣是:3D 視覺、目標識別、動作識別和自動定理證明。曾獲得 Sloan Research Fellowship、PAMI Mark Everingham Prize、 Yahoo ACE Award、Google Faculty Research Award、ICCV Marr Prize 等獎項。

          值得一提的是,這并不是鄧嘉第一次獲得 ECCV 的最佳論文獎,2014 年他憑借論文《Large-Scale Object Classification Using Label Relation Graphs》獲得當年的 ECCV 最佳論文獎,并且是該研究的第一作者。

          除此之外,他還是 ImageNet 論文的第一作者。ImageNet 數(shù)據(jù)集是目前機器學習領域最常用的數(shù)據(jù)集之一,它催生出了極大促進人工智能發(fā)展的 ImageNet 比賽。作為 ImageNet 的一作,鄧嘉為其傾注了許多心血。

          2019 年,這篇論文獲得了 CVPR PAMI Longuet-Higgins(經(jīng)典論文)獎。鄧嘉在接受機器之心采訪時表示:「這個項目很說明一件事情,當時做 ImageNet 不是最主流的工作,但是我們所有做此項目的人都相信它會有很大的影響,所以我們就花了很大力氣做這個事情。確實,它給我自己的一個啟示是,你不一定要做最流行的事情,但要做自己相信會有影響的事情。」目前,這篇發(fā)表于 2009 年的論文被引用量已超過兩萬。

          最佳論文榮譽提名獎


          大會還公布了最佳論文榮譽提名獎,共有兩篇論文獲得此獎項。


          論文 1:Towards Streaming Image Understanding

          • 論文地址:https://arxiv.org/abs/2005.10420

          • 論文作者:Mengtian Li、Yu-Xiong Wang、Deva Ramanan(卡內(nèi)基梅隆大學)


          具身感知(embodied perception)指自動智能體感知環(huán)境以便做出反應的能力。智能體的響應度很大程度上取決于處理流程的延遲。之前的工作主要涉及延遲和準確率之間的算法權衡,但缺少一種明確的指標來對比不同方法的帕累托最優(yōu)延遲 - 準確率曲線。這篇論文指出標準離線評估和實時應用之間的差異:算法處理完特定圖像幀時,周圍環(huán)境已經(jīng)發(fā)生改變。該研究提出將延遲和準確率協(xié)調(diào)地集成到一個度量指標中,用于實時在線感知,這就是「流準確率」(streaming accuracy)。

          此外,該研究基于此度量指標提出了一個元基準,它可以系統(tǒng)性地將任意圖像理解任務轉(zhuǎn)換成流圖像理解任務。研究人員主要關注城市視頻流中的目標檢測和實例分割任務,并創(chuàng)建了具備高質(zhì)量、時序稠密標注的新數(shù)據(jù)集。

          該研究提出的解決方案及其實證分析結(jié)果顯示:

          1. 在帕累托最優(yōu)延遲 - 準確率曲線上,存在能夠最大化流準確率的最優(yōu)點;

          2. 異步跟蹤和未來預測很自然地成為流圖像理解的內(nèi)部表征;

          3. 動態(tài)調(diào)度可用于克服時間混疊(temporal aliasing),得到一個吊詭的結(jié)果:什么都不做可能使延遲最小化。


          論文 2:NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis

          • 論文地址:https://arxiv.org/abs/2003.08934

          • 論文作者:Ben Mildenhall(UC 伯克利)、Pratul P. Srinivasan(UC 伯克利)、Matthew Tancik(UC 伯克利)、Jonathan T. Barron(谷歌)、Ravi Ramamoorthi(加州大學圣地亞哥分校)、Ren Ng(UC 伯克利)


          該研究提出了一種在合成復雜場景新視圖任務中實現(xiàn) SOTA 結(jié)果的新方法,該方法通過使用稀疏的輸入視圖集來優(yōu)化基礎的連續(xù)體場景函數(shù)。該算法使用全連接深度網(wǎng)絡表示場景,其輸入為單個連續(xù) 5D 坐標(空間位置 (x, y, z) 和視角方向 (θ, φ)),輸出為體積密度和在此空間位置上的視圖相關 emitted radiance。該研究通過查詢沿著攝像頭光線的 5D 坐標來合成視圖,并使用經(jīng)典的體渲染技術將輸出顏色和密度投影到圖像中。

          由于體渲染本身是可微的,因此優(yōu)化表征所需的唯一輸入是一組具備已知攝像機位姿的圖像。研究者介紹了如何高效優(yōu)化神經(jīng)輻射場(neural radiance field),渲染出逼真的具備復雜幾何形狀和外觀的場景新視圖,而且其在神經(jīng)渲染和視圖合成方面的效果優(yōu)于之前的工作。

          經(jīng)典論文:Koenderink 獎


          Koenderink 獎旨在表彰計算機視覺領域的基礎性貢獻研究,獲獎論文均為發(fā)表時間超過十年并經(jīng)受住時間檢驗的研究。

          本屆 ECCV 會議 Koenderink 獎頒發(fā)給了以下兩篇論文:


          論文 1:Improving the Fisher Kernel for Large-Scale Image Classification

          • 論文地址:https://lear.inrialpes.fr/pubs/2010/PSM10/PSM10_0766.pdf

          • 論文作者:Florent Perronnin、Jorge S′anchez、Thomas Mensink(施樂歐洲研究中心)


          Fisher Kernel(FK)是一個結(jié)合了生成和判別方法優(yōu)點的通用框架。在圖像分類領域,F(xiàn)K 擴展了流行的視覺詞袋(BOV)模型。然而,在實踐中,這種豐富的表征尚未顯現(xiàn)出相對 BOV 的優(yōu)越性。

          在論文的第一部分,研究者對原始框架進行了多項修改,使得 FK 準確率得到提升。在 PASCAL VOC 2007 數(shù)據(jù)集上的平均精度(AP)從 47.9% 提升到了 58.3%。改進后的框架在 CalTech 256 數(shù)據(jù)集上也展現(xiàn)出了 SOTA 準確率。其主要優(yōu)勢在于這些結(jié)果僅使用 SIFT 描述子和線性分類器獲得。使用該表征后,F(xiàn)K 框架可用于探索更大規(guī)模的圖像分類任務。

          在論文的第二部分應用部分,研究者對比了在兩個大規(guī)模標注圖像數(shù)據(jù)集上的分類器訓練情況:ImageNet 和 Flickr groups 數(shù)據(jù)集。在涉及數(shù)十萬訓練圖像的評估中,研究者發(fā)現(xiàn)基于 Flickr groups 學得的分類器性能非常好,而且它們可以對在更精細標注數(shù)據(jù)集上學得的分類器進行補充。

          論文 2:BRIEF: Binary Robust Independent Elementary Features

          • 論文地址:https://www.cs.ubc.ca/~lowe/525/papers/calonder_eccv10.pdf

          • 論文作者:Michael Calonder、Vincent Lepetit、Christoph Strecha、Pascal Fua(洛桑聯(lián)邦理工學院)


          這項研究提出將二進制字符串用作高效的特征點描述符,即 BRIEF。研究證明,即使在 bits 相對較少的情況下,BRIEF 依然呈現(xiàn)出高判別性,并且可以通過簡單的強度差測試來計算。

          此外,對描述符相似度的評估沒有采用常見的 L_2 范數(shù),而是使用了漢明距離(Hamming distance),后者計算起來非常高效。

          因此,BRIEF 的構建和匹配速度非常快。該研究在標準基準上將 BRIEF 與 SURF 和 U-SURF 進行比較,結(jié)果表明 BRIEF 能夠?qū)崿F(xiàn)相當或更優(yōu)的識別性能,同時運行時間只需其他二者的一部分。

          PAMI Everingham 獎


          該獎項旨在紀念 Mark Everingham,并鼓勵其他人向他學習,推進整個計算機視覺社區(qū)進一步發(fā)展。PAMI Everingham 獎授予對計算機視覺社區(qū)做出無私貢獻的研究者或研究團隊,由 IEEE 計算機協(xié)會模式分析與機器智能(PAMI)技術委員會頒發(fā)。

          今年的 PAMI Everingham 獎頒給了微軟高級科學家 Johannes Sch?nberger,以及 MIT 教授 Antonio Torralba 及創(chuàng)建多個數(shù)據(jù)集的合作者。


          Johannes Sch?nberger 現(xiàn)為微軟混合現(xiàn)實與人工智能蘇黎世實驗室高級科學家,開發(fā)了 COLMAP SFM 和 MVS 軟件庫。

          Johannes Sch?nberger 的獲獎理由是:他的工作為 3D 圖像重建提供了一個開源的端到端 pipeline 以及相關支持、開發(fā)和文檔。目前這已成為運動恢復結(jié)構(SFM)和多視角立體視覺(Multi-view Stereo,MVS)的參考軟件。


          Antonio Torralba 現(xiàn)為 MIT 電氣工程與計算機科學教授。在十多年的時間里,Antonio Torralba 與其他合作者定期發(fā)布新數(shù)據(jù)集以及創(chuàng)建這些數(shù)據(jù)集的方法。他們創(chuàng)建的 LabelMe、Tiny images、SUN/SUN-3D 和 MIT-Places 等數(shù)據(jù)集在計算機視覺領域有著極大的影響力。

          Demo 獎


          此外,大會公布了 Demo 獎。獲獎論文是《Inter-Homines: Distance-Based Risk Estimation for Human Safety》。


          該研究的 demo 如下:


          另有兩篇研究獲得了 ECCV 2020 Demo 獎提名:

          • 論文 1:FingerTrack:Continous 3D Hand Pose Tracking

          • 論文 2:Object Detection Kit:Identifying Urban Issues in Real-time



          下載1:動手學深度學習


          AI算法與圖像處公眾號后臺回復:動手學深度學習,即可下載547頁《動手學深度學習》電子書和源碼。該書是面向中文讀者的能運行、可討論的深度學習教科書,它將文字、公式、圖像、代碼和運行結(jié)果結(jié)合在一起。本書將全面介紹深度學習從模型構造到模型訓練,以及它們在計算機視覺和自然語言處理中的應用。



          下載2
          AI算法與圖像處公眾號后臺回復:OpenCV實戰(zhàn)項目20講,即可下載20個有趣的OpenCV實戰(zhàn)項目
          個人微信(如果沒有備注不拉群!
          請注明:地區(qū)+學校/企業(yè)+研究方向+昵稱


          瀏覽 45
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  黄色免费小视频在线观看 | 靠逼91| 亚洲一区二区黄色电影视频 | 精品一区二区三区四区五区六区七区八区 | 能看毛片的网站 |