>加入極市CV技術(shù)交流群,走在計(jì)算機(jī)視覺(jué)的最..." />
<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          ECCV 2020 目標(biāo)跟蹤論文大盤(pán)點(diǎn)

          共 6545字,需瀏覽 14分鐘

           ·

          2020-10-06 20:10

          ↑ 點(diǎn)擊藍(lán)字?關(guān)注極市平臺(tái)

          作者丨CV君
          來(lái)源丨我愛(ài)計(jì)算機(jī)視覺(jué)
          編輯丨極市平臺(tái)

          極市導(dǎo)讀

          ?

          本文盤(pán)點(diǎn)了ECCV 2020中的目標(biāo)跟蹤相關(guān)研究,包括一部分業(yè)內(nèi)非常知名的工作,值得關(guān)注。>>加入極市CV技術(shù)交流群,走在計(jì)算機(jī)視覺(jué)的最前沿


          本文盤(pán)點(diǎn)ECCV 2020 所有與跟蹤相關(guān)的研究,單指目標(biāo)的跟蹤,不涉及人體姿態(tài)等點(diǎn)的跟蹤,總計(jì)19篇文章,其中12篇開(kāi)源或者將開(kāi)源。

          其中多目標(biāo)跟蹤、單目標(biāo)跟蹤、對(duì)抗學(xué)習(xí)+目標(biāo)跟蹤研究工作較多。其中有已經(jīng)特別知名的工作,比如來(lái)自CenterNet思想延申的?Tracking Objects as Points?,非常值得關(guān)注。

          下載包含這些論文的 ECCV 2020 所有論文:

          https://www.ecva.net/papers.php

          多目標(biāo)跟蹤 MOT

          Chained-Tracker: Chaining Paired Attentive Regression Results for End-to-End Joint Multiple-Object Detection and Tracking
          作者 |?Jinlong Peng,?Changan Wang,?Fangbin Wan,?Yang Wu,?Yabiao Wang,?Ying Tai,?Chengjie Wang,?Jilin Li,?Feiyue Huang,?Yanwei Fu
          單位 | 騰訊優(yōu)圖;復(fù)旦大學(xué);奈良先端科學(xué)技術(shù)大學(xué)院大學(xué)
          論文 |?https://arxiv.org/abs/2007.14557
          代碼 |?https://github.com/pjl1995/CTracker
          備注?|?ECCV 2020?Spotlight
          視頻丨h(huán)ttps://v.qq.com/x/page/k3152fqim69.html


          Segment as Points for Efficient Online Multi-Object Tracking and?Segmentation
          作者 |?Zhenbo Xu,?Wei Zhang,?Xiao Tan,?Wei Yang,?Huan Huang,?Shilei Wen,?Errui Ding,?Liusheng Huang
          單位 |?中國(guó)科學(xué)技術(shù)大學(xué);百度
          論文 |?https://arxiv.org/abs/2007.01550
          代碼 |?https://github.com/detectRecog/PointTrack
          備注 |?ECCV2020?Oral
          以點(diǎn)來(lái)分割,高效的在線多目標(biāo)跟蹤和分割


          Tracking Objects as Points
          作者 |?Xingyi Zhou,?Vladlen Koltun,?Philipp Kr?henbühl
          單位 |?得克薩斯大學(xué)奧斯汀分校;英特爾
          論文 |?https://arxiv.org/abs/2004.01177
          代碼 |?https://github.com/xingyizhou/CenterTrack
          備注?|?ECCV 2020?Spotlight
          以22 FPS的速度在MOT17數(shù)據(jù)集上實(shí)現(xiàn)了67.3%的MOTA,以15 FPS的速度在KITTI跟蹤基準(zhǔn)上實(shí)現(xiàn)了89.4%的MOTA。

          CenterTrack在最新發(fā)布的nuScenes 3D跟蹤基準(zhǔn)上達(dá)到了28.3%[email protected],在28 FPS的運(yùn)行速度下,大幅超越了該基準(zhǔn)上的單目基線。

          Demo(openpose和YOLO的視頻文件):

          ?

          3D?目標(biāo)跟蹤 demo?:


          Towards Real-Time Multi-Object Tracking
          作者 |?Zhongdao Wang,?Liang Zheng,?Yixuan Liu,?Yali Li,?Shengjin Wang
          單位 | 清華大學(xué);澳大利亞國(guó)立大學(xué)
          論文 |?https://arxiv.org/abs/1909.12605
          代碼 |?https://github.com/Zhongdao/Towards-Realtime-MOT
          備注?|?ECCV 2020
          在以往的工作中,多目標(biāo)跟蹤系統(tǒng)的檢測(cè)和表觀嵌入模塊使分離的,該文使檢測(cè)與表觀嵌入共享模型,設(shè)計(jì)了第一個(gè)實(shí)時(shí)的MOT系統(tǒng),隨分辨率不同其運(yùn)行速度為22至40 FPS。同時(shí),它的跟蹤精度與SOTA的分離模型相近。


          Simultaneous Detection and Tracking with Motion Modelling for Multiple Object Tracking
          作者 | ShiJie Sun, Naveed Akhtar, XiangYu Song, HuanSheng Song, Ajmal Mian , Mubarak Shah
          單位 |?長(zhǎng)安大學(xué);西澳大學(xué);迪肯大學(xué);中佛羅里達(dá)大學(xué)
          論文 |?https://www.ecva.net/papers/eccv_2020/
          papers_ECCV/papers/123690613.pdf
          代碼 |?https://github.com/shijieS/OmniMOTDataset
          備注?|?ECCV 2020



          單目標(biāo)跟蹤


          PG-Net: Pixel to Global Matching Network for Visual Tracking
          作者 | Bingyan Liao, Chenye Wang, Yayun Wang, Yaonong Wang, Jun Yin
          單位 |?浙江大華技術(shù)股份有限公司
          論文 |?https://www.ecva.net/papers/eccv_2020/
          papers_ECCV/papers/123670426.pdf
          備注?|?ECCV 2020


          CLNet: A Compact Latent Network for Fast Adjusting Siamese Trackers
          作者 | Xingping Dong, Jianbing Shen, Ling Shao, Fatih Porikli
          單位 | Inception Institute of Artificial Intelligence;Mohamed bin Zayed University of Artificial Intelligence;Australian National University
          論文 |?https://www.ecva.net/papers/eccv_2020/
          papers_ECCV/papers/123650375.pdf
          代碼 |?https://github.com/xingpingdong/CLNet-tracking
          備注 |?ECCV 2020


          Learning Feature Embeddings for Discriminant Model based Tracking
          作者 |?Linyu Zheng,?Ming Tang,?Yingying Chen,?Jinqiao Wang,?Hanqing Lu
          單位 | 中科院;國(guó)科大;深圳英飛拓科技股份有限公司;ObjectEye Inc
          論文 |?https://arxiv.org/abs/1906.10414
          代碼 |?https://github.com/noneUmbrella/DCFST
          備注?|?ECCV 2020


          Object Tracking using Spatio-Temporal Networks for Future Prediction Location
          作者 | Yuan Liu, Ruoteng Li, Yu Cheng, Robby T. Tan, Xiubao Sui
          單位 |?南京理工大學(xué);新加坡國(guó)立大學(xué);耶魯-新加坡國(guó)立大學(xué)學(xué)院
          論文 |?https://www.ecva.net/papers/eccv_2020/
          papers_ECCV/papers/123670001.pdf
          備注?|?ECCV 2020
          利用 Spatio-Temporal 網(wǎng)絡(luò)進(jìn)行目標(biāo)跟蹤,實(shí)現(xiàn)未來(lái)的預(yù)測(cè)定位。


          Know Your Surroundings: Exploiting Scene Information for Object Tracking
          作者 |?Goutam Bhat,?Martin Danelljan,?Luc Van Gool,?Radu Timofte
          單位 | 蘇黎世聯(lián)邦理工學(xué)院
          論文 |?https://arxiv.org/abs/2003.11014
          備注?|?ECCV 2020
          利用場(chǎng)景信息用于目標(biāo)跟蹤,所提出的方法在3個(gè)跟蹤基準(zhǔn)上創(chuàng)造了新SOTA,在最近的GOT-10k數(shù)據(jù)集上實(shí)現(xiàn)了63.6%的AO得分。


          Tracking Emerges by Looking Around Static Scenes, with Neural 3D Mapping
          作者 |?Adam W. Harley,?Shrinidhi K. Lakshmikanth,?Paul Schydlo,?Katerina Fragkiadaki
          單位 | 卡內(nèi)基梅隆大學(xué)
          論文 |?https://arxiv.org/abs/2008.01295
          代碼 |?https://github.com/aharley/neural_3d_tracking(未開(kāi)源)
          備注?|?ECCV 2020
          通過(guò)觀察靜態(tài)場(chǎng)景,跟蹤出現(xiàn)的新來(lái)目標(biāo)。


          RGBT 跟蹤


          Challenge-Aware RGBT Tracking
          作者 |?Chenglong Li,?Lei Liu,?Andong Lu,?Qing Ji,?Jin Tang
          單位 | 安徽大學(xué)
          論文 |?https://arxiv.org/abs/2007.13143
          備注?|?ECCV 2020
          RGB與熱源信號(hào)的目標(biāo)跟蹤。

          Anchor-free?跟蹤


          Ocean: Object-aware Anchor-free Tracking
          作者 |?Zhipeng Zhang,?Houwen Peng,?Jianlong Fu,?Bing Li,?Weiming Hu
          單位 | CASIA & AI School;微軟
          論文 |?https://arxiv.org/abs/2006.10721
          代碼 |?https://github.com/researchmm/TracKit
          備注?|?ECCV 2020
          Anchor-free 跟蹤器在VOT-2018、VOT-2019、OTB-100、GOT-10k和LaSOT等五個(gè)基準(zhǔn)上實(shí)現(xiàn)了SOTA。
          視頻demo:
          https://v.qq.com/x/page/c3152x4cg54.html


          遠(yuǎn)程眼動(dòng)跟蹤


          Deep Learning-based Pupil Center Detection for Fast and Accurate Eye Tracking System
          作者 | Kang Il Lee, Jung Ho Jeon, Byung Cheol Song
          單位 | 韓國(guó)仁荷大學(xué)
          論文 |?https://www.ecva.net/papers/eccv_2020/
          papers_ECCV/papers/123640035.pdf
          備注?|?ECCV 2020
          所提出的系統(tǒng)不僅在通用計(jì)算機(jī)環(huán)境下可達(dá)到52 FPS,而且在BioID、GI4E和Talking Face Video數(shù)據(jù)集的精細(xì)度精度方面分別達(dá)到96.71%、99.84%和96.38%。
          視頻丨h(huán)ttps://v.qq.com/x/page/y3152g4y78s.html

          對(duì)抗學(xué)習(xí)+目標(biāo)跟蹤


          SPARK: Spatial-aware Online Incremental Attack Against Visual Tracking
          作者 |?Qing Guo,?Xiaofei Xie,?Felix Juefei-Xu,?Lei Ma,?Zhongguo Li,?Wanli Xue,?Wei Feng,?Yang Liu
          單位 | 天津大學(xué);南洋理工大學(xué);阿里;Kyushu University;天津理工大學(xué)
          論文 |?https://arxiv.org/abs/1910.08681
          備注?|?ECCV 2020


          Efficient Adversarial Attacks for Visual Object Tracking
          作者 |?Siyuan Liang,?Xingxing Wei,?Siyuan Yao,?Xiaochun Cao
          單位 | 中科院;國(guó)科大;鵬城實(shí)驗(yàn)室;北航
          論文 |?https://arxiv.org/abs/2008.00217
          備注?|?ECCV 2020
          FAN可以在10ms內(nèi)生成一個(gè)對(duì)抗性實(shí)例,實(shí)現(xiàn)有效的針對(duì)性攻擊(OTB上至少40%的drop rate)和非針對(duì)性攻擊(OTB上至少70%的drop rate)。


          Robust Tracking against Adversarial Attacks
          作者 |?Shuai Jia,?Chao Ma,?Yibing Song,?Xiaokang Yang
          單位 | 上海交通大學(xué);騰訊AI
          論文 |?https://arxiv.org/abs/2007.09919
          代碼 |?https://github.com/joshuajss/RTAA
          備注?|?ECCV 2020


          細(xì)胞跟蹤


          細(xì)胞跟蹤,弱監(jiān)督學(xué)習(xí)
          Weakly-Supervised Cell Tracking via Backward-and-Forward Propagation
          作者 |?Kazuya Nishimura,?Junya Hayashida,?Chenyang Wang,?Dai Fei Elmer Ker,?Ryoma Bise
          單位 | 日本九州大學(xué);港中文
          論文 |?https://arxiv.org/abs/2007.15258
          代碼 |?https://github.com/naivete5656/WSCTBFP
          備注?|?ECCV 2020


          數(shù)據(jù)集


          大規(guī)模多類(lèi)別目標(biāo)跟蹤數(shù)據(jù)集
          TAO: A Large-Scale Benchmark for Tracking Any Object
          作者 | Achal Dave, Tarasha Khurana, Pavel Tokmakov, Cordelia Schmid, Deva Ramanan
          單位 | CMU;Inria;Argo AI
          論文 | https://arxiv.org/abs/2005.10356
          代碼 | http://taodataset.org/#



          推薦閱讀


          ACCV 2020國(guó)際細(xì)粒度網(wǎng)絡(luò)圖像識(shí)別競(jìng)賽即將開(kāi)賽!
          添加極市小助手微信(ID : cvmart2),備注:姓名-學(xué)校/公司-研究方向-城市(如:小極-北大-目標(biāo)檢測(cè)-深圳),即可申請(qǐng)加入極市目標(biāo)檢測(cè)/圖像分割/工業(yè)檢測(cè)/人臉/醫(yī)學(xué)影像/3D/SLAM/自動(dòng)駕駛/超分辨率/姿態(tài)估計(jì)/ReID/GAN/圖像增強(qiáng)/OCR/視頻理解等技術(shù)交流群:每月大咖直播分享、真實(shí)項(xiàng)目需求對(duì)接、求職內(nèi)推、算法競(jìng)賽、干貨資訊匯總、與?10000+來(lái)自港科大、北大、清華、中科院、CMU、騰訊、百度等名校名企視覺(jué)開(kāi)發(fā)者互動(dòng)交流~

          △長(zhǎng)按添加極市小助手

          △長(zhǎng)按關(guān)注極市平臺(tái),獲取最新CV干貨

          覺(jué)得有用麻煩給個(gè)在看啦~??
          瀏覽 91
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  欧美一级乱码 | 国产日批视频免费观看 | 黄色大片在线免费观看 | 黄网站在线观看 | 成 人 免费 黄 色 视频 成年人视频中文字幕在线播放 |