PG-Net: Pixel to Global Matching Network for Visual Tracking作者 | Bingyan Liao, Chenye Wang, Yayun Wang, Yaonong Wang, Jun Yin單位 |?浙江大華技術(shù)股份有限公司論文 |?https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123670426.pdf備注?|?ECCV 2020 CLNet: A Compact Latent Network for Fast Adjusting Siamese Trackers作者 | Xingping Dong, Jianbing Shen, Ling Shao, Fatih Porikli單位 | Inception Institute of Artificial Intelligence;Mohamed bin Zayed University of Artificial Intelligence;Australian National University論文 |?https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123650375.pdf代碼 |?https://github.com/xingpingdong/CLNet-tracking備注 |?ECCV 2020 Learning Feature Embeddings for Discriminant Model based Tracking作者 |?Linyu Zheng,?Ming Tang,?Yingying Chen,?Jinqiao Wang,?Hanqing Lu單位 | 中科院;國(guó)科大;深圳英飛拓科技股份有限公司;ObjectEye Inc論文 |?https://arxiv.org/abs/1906.10414代碼 |?https://github.com/noneUmbrella/DCFST備注?|?ECCV 2020 Object Tracking using Spatio-Temporal Networks for Future Prediction Location作者 | Yuan Liu, Ruoteng Li, Yu Cheng, Robby T. Tan, Xiubao Sui單位 |?南京理工大學(xué);新加坡國(guó)立大學(xué);耶魯-新加坡國(guó)立大學(xué)學(xué)院論文 |?https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123670001.pdf備注?|?ECCV 2020利用 Spatio-Temporal 網(wǎng)絡(luò)進(jìn)行目標(biāo)跟蹤,實(shí)現(xiàn)未來(lái)的預(yù)測(cè)定位。 Know Your Surroundings: Exploiting Scene Information for Object Tracking作者 |?Goutam Bhat,?Martin Danelljan,?Luc Van Gool,?Radu Timofte單位 | 蘇黎世聯(lián)邦理工學(xué)院論文 |?https://arxiv.org/abs/2003.11014備注?|?ECCV 2020利用場(chǎng)景信息用于目標(biāo)跟蹤,所提出的方法在3個(gè)跟蹤基準(zhǔn)上創(chuàng)造了新SOTA,在最近的GOT-10k數(shù)據(jù)集上實(shí)現(xiàn)了63.6%的AO得分。 Tracking Emerges by Looking Around Static Scenes, with Neural 3D Mapping作者 |?Adam W. Harley,?Shrinidhi K. Lakshmikanth,?Paul Schydlo,?Katerina Fragkiadaki單位 | 卡內(nèi)基梅隆大學(xué)論文 |?https://arxiv.org/abs/2008.01295代碼 |?https://github.com/aharley/neural_3d_tracking(未開(kāi)源)備注?|?ECCV 2020通過(guò)觀察靜態(tài)場(chǎng)景,跟蹤出現(xiàn)的新來(lái)目標(biāo)。
Deep Learning-based Pupil Center Detection for Fast and Accurate Eye Tracking System作者 | Kang Il Lee, Jung Ho Jeon, Byung Cheol Song單位 | 韓國(guó)仁荷大學(xué)論文 |?https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123640035.pdf備注?|?ECCV 2020所提出的系統(tǒng)不僅在通用計(jì)算機(jī)環(huán)境下可達(dá)到52 FPS,而且在BioID、GI4E和Talking Face Video數(shù)據(jù)集的精細(xì)度精度方面分別達(dá)到96.71%、99.84%和96.38%。視頻丨h(huán)ttps://v.qq.com/x/page/y3152g4y78s.html