<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          CVPR 二十年,影響力最大的 10 篇論文!

          共 5572字,需瀏覽 12分鐘

           ·

          2021-04-14 16:20

          作者丨二玖
          轉(zhuǎn)自丨極市平臺

          此前,極市平臺盤點了圖像分割在過去二十年中影響力最大的10篇論文,得到了許多開發(fā)者的支持。今天,我們將對計算機視覺領(lǐng)域三大頂會之一CVPR在近二十年來中產(chǎn)生的優(yōu)秀論文進行一個全面的盤點與總結(jié)。

          CVPR是計算機視覺領(lǐng)域三大頂會中唯一一個年度學術(shù)會議。在快速更新迭代的計算機學科中,CVPR成為了計算機視覺領(lǐng)域的“頂級流量”。而在過去的這些年間,CVPR也有著許多的變化。在十多年前,CVPR不過1500人的參會規(guī)模,到了2019年參會人數(shù)已經(jīng)超過了6500人,投稿數(shù)量也年年增長。

          雖然CVPR每年都會評選出最佳論文,但我們今天將從另一個角度來評選CVPR這二十年來的TOP10。即以Web of Science上顯示的論文的引用量作為論文影響力的參考,排列出近二十年來影響力最大的十篇論文。接下來我們將依次進行介紹。

          TOP10

          Rethinking the Inception Architecture for Computer Vision

          CVPR 2016

          作者:Christian Szegedy,Vincent Vanhoucke,Sergey Ioffe,Jon Shlens,Zbigniew Wojna

          機構(gòu):Google,倫敦大學

          被引頻次:4751

          這篇論文又被稱為Inception-v3,是GoogLeNet(Inception-v1)的延伸。GoogLeNet首次出現(xiàn)于2014年ILSVRC 比賽,并在當年的比賽中獲得了冠軍。Inception-v1的參數(shù)量遠小于同期VGGNet,而性能卻與之基本持平。相較于Inception-v1,Inception-v3做出的主要改進則是將卷積進行非對稱拆分,以顯著降低參數(shù)量,同時使得空間特征更為豐富。

          TOP9

          Densely Connected Convolutional Networks

          CVPR 2017

          作者:Gao Huang,Zhuang Liu,Laurens van der Maaten,Kilian Q. Weinberger

          機構(gòu):康奈爾大學,清華大學,F(xiàn)acebook AI Research

          被引頻次:5181

          DenseNet也是CVPR2017的最佳論文之一。在當時的神經(jīng)網(wǎng)絡模型都遇到一個問題:隨著網(wǎng)路層數(shù)的加深,訓練過程中的前傳信號和梯度信號在經(jīng)過很多層之后可能會逐漸消失。而DenseNet的核心思想解決了這一問題。它對前每一層都加一個單獨的 shortcut,使得任意兩層網(wǎng)絡都可以直接“溝通”

          而DenseNet的不足之處在于它的內(nèi)存占用十分龐大。但瑕不掩瑜,DenseNet以其極具創(chuàng)新性的思路,不僅顯著減輕了深層網(wǎng)絡在訓練過程中梯度消散而難以優(yōu)化的問題,同時也取得了非常好的性能。

          TOP8

          You Only Look Once: Unified, Real-Time Object Detection

          CVPR 2016

          作者:Joseph Redmon,Santosh Divvala,Ross Girshick,Ali Farhadiq

          機構(gòu):華盛頓大學,Allen Institute for AI,F(xiàn)acebook AI Research

          被引頻次:5295

          這一篇論文就是在目標檢測領(lǐng)域大名鼎鼎的YOLO。其最新的版本已經(jīng)更新到了YOLOv5,且每一代的發(fā)布都能在行業(yè)內(nèi)卷齊新的熱潮。

          用YOLO的英文直譯解釋這一方法,就是只需要瀏覽一次就能識別出圖中的物體的類別和位置。展開來說,YOLO的核心思想就是將目標檢測轉(zhuǎn)化為回歸問題求解,并基于一個單獨的端到端網(wǎng)絡,完成從原始圖像的輸入到物體位置和類別的輸出。這使得網(wǎng)絡結(jié)構(gòu)簡單,且極大提升了檢測速度。由于網(wǎng)絡沒有分支,所以訓練也只需要一次即可完成。之后的很多檢測算法都借鑒了這一思路。

          TOP7

          Rich feature hierarchies for accurate object detection and semantic segmentation

          CVPR 2014

          作者:Ross Girshick,Jeff Donahue,Trevor Darrell,Jitendra Malik

          機構(gòu):加利福尼亞大學伯克利分校

          被引頻次:6876

          這篇文章的排名在YOLO之前,既合理又巧妙。因為在YOLO之前,目標檢測領(lǐng)域可以說是RCNN的世界。RCNN是將CNN引入目標檢測的開山之作,它改變了目標檢測領(lǐng)域的主要研究思路。緊隨其后的系列文章,如Fast RCNN和Faster RCNN等,都代表了該領(lǐng)域當時的最高水準。

          在RCNN前經(jīng)典的目標檢測算法是使用滑動窗法依次判斷所有可能的區(qū)域,而RCNN則采用Selective Search方法預先提取一系列較可能是物體的候選區(qū)域,之后僅在這些候選區(qū)域上提取特征,這使得檢測的速度大大提升。

          TOP6

          Rapid object detection using a boosted cascade of simple features

          CVPR 2001

          作者:Paul Viola,Michael Jones

          機構(gòu):三菱電氣實驗室 ,康柏劍橋研究實驗室

          被引頻次:7033

          這篇論文是本次盤點中最先發(fā)表的一篇,比其他九篇文章都早了十年左右,它在傳統(tǒng)人臉檢測中具有里程碑意義,因而本文提出的思想聚焦于傳統(tǒng)的目標檢測。

          這篇論文主要解決了三個問題:一是減少了計算特征的時間,二是構(gòu)建了簡單又很有效的單分支決策樹分類器,最后是從簡單到復雜把多個分類器級聯(lián),對可能包含人臉的區(qū)域進行重點檢測,從而顯著提升了檢測速度。

          TOP5

          Going Deeper with Convolutions

          CVPR 2015

          作者:Christian Szegedy,Dragomir Anguelov, Dumitru Erhan,Vincent Vanhoucke,Yangqing Jia,Pierre Sermanet,Wei Liu,Scott Reed,Andrew Rabinovich

          機構(gòu):Google,北卡羅來納大學,密歇根大學

          發(fā)布時間:2015年

          被引頻次:7269

          可能大家已經(jīng)發(fā)現(xiàn)了亮點,這篇論文的系列工作在前面就出現(xiàn)過。這篇論文就是開辟Inception家族,并在CNN分類器發(fā)展史上留下濃墨重彩的一筆的GoogLeNet。

          在 Inception 出現(xiàn)之前,大部分流行 CNN 是將卷積層不斷堆疊,讓網(wǎng)絡越來越深來得到更好的性能。而GoogLeNet 最大的特點就是使用 Inception 模塊,并設(shè)計一種具有優(yōu)良局部拓撲結(jié)構(gòu)的網(wǎng)絡,對輸入圖像并行地執(zhí)行多個卷積運算或池化操作,將所有輸出結(jié)果拼接為一個非常深的特征圖。通過這種方式,GoogLeNet取得了非常驚艷的效果。

          TOP4

          ImageNet: A Large-Scale Hierarchical Image Database

          CVPR 2009

          作者:Jia Deng,Wei Dong,Richard Socher,Li-Jia Li,Kai Li,Li Fei-Fei

          機構(gòu):普林斯頓大學

          發(fā)布時間:2009年

          被引頻次:8222

          ImageNet是AI女神李飛飛團隊構(gòu)建的計算機視覺領(lǐng)域非常著名的海量的帶標注圖像數(shù)據(jù)集。它在圖像分類、目標分割和目標檢測中都有著無法撼動的地位。ImageNet從 2007 年開始到 2009 年完成,有超過 1500 萬張圖片。

          可以毫不夸張的說,ImageNet 是圖像處理算法的試金石。另外,從 2010 年起,每年 ImageNet 官方會舉辦挑戰(zhàn)賽。Hinton團隊提出的AlexNet也是在2012年的ImageNet挑戰(zhàn)賽上一舉成名,自此深度學習的熱潮被點燃。

          TOP3

          Fully Convolutional Networks for Semantic Segmentation

          CVPR 2015

          作者:Jonathan Long,Evan Shelhamer,Trevor Darrell

          發(fā)布時間:2015年

          被引頻次:9027

          FCN在我們之前盤點的圖像分割TOP10中就出現(xiàn)過,并高居第一位。作為語義分割的開山之作,無論是圖像分割TOP1,還是CVPRTOP3,F(xiàn)CN都是當之無愧的。FCN所提出的全卷積網(wǎng)絡的概念,開創(chuàng)了用FCN做實例和像素級別理解系列方法的先河。后續(xù)非常多的方法都受到了FCN的思路啟發(fā)。FCN的提出為目標識別、檢測與分割也都做出了巨大的貢獻。

          TOP2

          Histograms of oriented gradients for human detection

          CVPR 2005

          作者:Navneet Dalal,Bill Triggs

          被引頻次:13389

          這篇論文所提出的方法簡稱HOG,是一種是非常經(jīng)典的圖像特征提取方法,在行人識別領(lǐng)域被應用得尤為多。雖然文章已經(jīng)發(fā)表了十五年,但仍然常常被人們用于最新工作的思路參考。HOG將圖像分成小的連通區(qū)域,將它稱為細胞單元,然后采集細胞單元中各像素點的梯度的或邊緣的方向直方圖,把這些直方圖組合起來就可以構(gòu)成特征描述器。

          TOP1

          Deep Residual Learning for Image Recognition

          CVPR2016

          作者:Kaiming He,Xiangyu Zhang,Shaoqing Ren,Jian Sun

          被引頻次:32065

          這篇論文作為第一名,的確是當之無愧。作為CVPR2016的最佳論文,它所提出的ResNet不僅在計算機視覺領(lǐng)域,而是在深度學習領(lǐng)域中都帶來了顛覆式影響。

          在當年,ResNet橫掃 ImageNet 2015和COCO 榜單。也是從ResNet開始,神經(jīng)網(wǎng)絡在視覺分類任務上的性能第一次超越了人類。它也讓當時第二次獲得CVPR Best Paper的何愷明正式踏上了大神之路

          最初 ResNet 的設(shè)計是用來處理深層 CNN 結(jié)構(gòu)中梯度消失和梯度爆炸的問題,它將輸入從卷積層的每個塊添加到輸出,讓每一層更容易學習恒等映射,并且還減少了梯度消失的問題。而如今,殘差模塊已經(jīng)成為幾乎所有 CNN 結(jié)構(gòu)中的基本構(gòu)造


          最后,我們來進行一下簡要地總結(jié)。雖然本次盤點的是20年內(nèi)CVPRTOP10,但是有超過半數(shù)的論文都是在近十年發(fā)表的,由此可以窺見深度學習在近年來的飛躍式發(fā)展。因此我們可以期待在未來的計算機視覺領(lǐng)域,一定會有更多更強的工作,為我們的科研與生活帶來更快更好的提升。

          CVPR TOP10 論文小編已經(jīng)打包好了,公眾號后臺回復【CVPR】即可獲取。


          參考資料

          [1] https://zhuanlan.zhihu.com/p/41691301
          [2] https://www.zhihu.com/question/60109389/answer/203099761
          [3] https://zhuanlan.zhihu.com/p/31427164
          [4] https://zhuanlan.zhihu.com/p/23006190
          [5] https://blog.csdn.net/weixin_37763809/article/details/88256828
          [6] https://zhuanlan.zhihu.com/p/37505777
          [7] https://zhuanlan.zhihu.com/p/77221549
          [8] https://www.zhihu.com/question/433702668/answer/1617092684
          [9] https://blog.csdn.net/zouxy09/article/details/7929348
          [10] https://www.jiqizhixin.com/articles/2020-01-01


          往期精彩:

          【原創(chuàng)首發(fā)】機器學習公式推導與代碼實現(xiàn)30講.pdf

          【原創(chuàng)首發(fā)】深度學習語義分割理論與實戰(zhàn)指南.pdf

           談中小企業(yè)算法崗面試

           算法工程師研發(fā)技能表

           真正想做算法的,不要害怕內(nèi)卷

           算法工程師的日常,一定不能脫離產(chǎn)業(yè)實踐

           技術(shù)學習不能眼高手低

           技術(shù)人要學會自我營銷

           做人不能過擬合

          求個在看

          瀏覽 44
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  台湾在线视频一区二 | 亚洲夜福利 | 一区二区黄色电影 | 草逼欧美 | 丁香婷婷五月色成人网站 |