<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          ECCV 2020 谷歌論文盤點—Poster 篇

          共 8649字,需瀏覽 18分鐘

           ·

          2020-09-15 22:42


          點擊上方小白學(xué)視覺”,選擇加"星標"或“置頂

          重磅干貨,第一時間送達


          今天盤點Poster中的谷歌論文,總計27篇,從這些論文中可看出,谷歌很重視自動駕駛,多篇論文為自動駕駛領(lǐng)域,目標檢測、NAS、數(shù)據(jù)增廣方法等也是研究的重點。


          下載所有ECCV 2020 請點這里:

          ECCV 2020 論文合集下載,分類盤點進行中


          論文相關(guān)代碼已列出,歡迎感興趣的朋友參考。


          [1].NASA: Neural Articulated Shape Approximation
          作者?|?Boyang Deng, JP Lewis, Timothy Jeruzalski, Gerard Pons-Moll, Geoffrey Hinton, Mohammad Norouzi, Andrea Tagliasacchi
          單位 | 谷歌,薩爾信息學(xué)院,多倫多大學(xué)
          論文?|?https://arxiv.org/abs/1912.03207
          代碼 |?https://github.com/tensorflow/graphics/tree/
          master/tensorflow_graphics/projects/nasa
          主頁 |?https://virtualhumans.mpi-inf.mpg.de/nasa/
          解讀 |?https://zhuanlan.zhihu.com/p/98155806
          備注 |?ECCV?2020?
          該文發(fā)明一種利用神經(jīng)網(wǎng)絡(luò)對有關(guān)節(jié)三維模型進行估計的方法NASA。



          弱監(jiān)督、視頻理解

          [2].Uncertainty-Aware Weakly Supervised Action Detection from Untrimmed Videos

          作者?|?Anurag Arnab,?Chen Sun,?Arsha Nagrani,?Cordelia Schmid

          單位 | 谷歌

          論文?|?https://arxiv.org/abs/2007.10703

          備注 |?ECCV?2020

          針對未裁剪的視頻提出一種不確定性感知的弱監(jiān)督動作檢測算法。



          [3].Beyond Controlled Environments: 3D Camera Re-Localization in Changing Indoor Scenes

          作者?|?Johanna Wald,?Torsten Sattler,?Stuart Golodetz,?Tommaso Cavallari,?Federico Tombari

          單位 | 慕尼黑工業(yè)大學(xué);查爾姆斯理工大學(xué);捷克理工大學(xué);Five AI Ltd;谷歌

          論文?|?https://arxiv.org/abs/2008.02004

          主頁 |?https://waldjohannau.github.io/RIO10/

          備注 |?ECCV?2020

          該文提出一種超越受控環(huán)境的室內(nèi)場景變化中的3D攝像機重定位方法。



          [4].Consistency Guided Scene Flow Estimation

          作者?|?Yuhua Chen, Luc Van Gool, Cordelia Schmid, Cristian Sminchisescu

          單位 | 谷歌,ETH Zurich

          論文?|?https://arxiv.org/abs/2006.11242

          備注 |?ECCV?2020

          該文提出一種自監(jiān)督學(xué)習(xí)框架,從立體視頻中重建三維場景結(jié)構(gòu)和運動。



          [5].Continuous Adaptation for Interactive Object Segmentation by Learning from Corrections

          作者?|?Theodora Kontogianni,?Michael Gygli,?Jasper Uijlings,?Vittorio Ferrari

          單位 | 谷歌,亞琛工業(yè)大學(xué)

          論文?|?https://arxiv.org/abs/1911.12709

          備注 |?ECCV?2020

          一種從用戶校正操作中學(xué)習(xí)得到的交互式土體分割方法。



          人體姿態(tài)估計

          [6].SimPose: Effectively Learning DensePose and Surface Normals of People from Simulated Data

          作者?|?Tyler Zhu, Per Karlsson, Christoph Bregler

          單位 | 谷歌

          論文?|?https://arxiv.org/abs/2007.15506

          備注 |?ECCV?2020

          對人體進行密集2.5D DensePose 和3D表面法向標注是非常昂貴的,該文提出一種從模擬數(shù)據(jù)經(jīng)域適應(yīng)技術(shù)進行真人密集姿態(tài)估計和表面法向量計算的方法,大幅降低了成本取得了不錯的效果。




          [7].Learning Data Augmentation Strategies for Object Detection

          作者?|?Barret Zoph,?Ekin D. Cubuk,?Golnaz Ghiasi,?Tsung-Yi Lin,?Jonathon Shlens,?Quoc V. Le

          單位 | 谷歌

          論文?|?https://arxiv.org/abs/1906.11172

          代碼 |?https://github.com/tensorflow/tpu/tree/master/

          models/official/detection

          備注 |?ECCV?2020

          數(shù)據(jù)增廣是如此重要,已經(jīng)獲得大量研究者的關(guān)注,但作者發(fā)現(xiàn)對于圖像分類有效的增廣策略對目標檢測的提升是有限的,于是作者提出一重可學(xué)習(xí)的用于目標檢測特定任務(wù)的增廣方法,實驗中取得了2.3mAP的提升,而且將這種策略直接用于其他數(shù)據(jù)集,同樣獲得了2.7mAP的提升,證明這種方法推廣性很好。



          [8].Streaming Object Detection for 3-D Point Clouds

          作者?|?Wei Han, Zhengdong Zhang, Benjamin Caine, Brandon Yang, Christoph Sprunk, Ouais Alsharif, Jiquan Ngiam, Vijay Vasudevan, Jonathon Shlens, Zhifeng Chen

          單位 | 谷歌,Waymo

          論文?|?https://arxiv.org/abs/2005.01864

          備注 |?ECCV?2020

          不同于RGB成像的相機,需要獲得全部數(shù)據(jù)再進行后一步處理,這在自動駕駛汽車中會造成一定的延遲,該文針對激光雷達信號采集的流式的特點,設(shè)計一種流式目標檢測的算法,降低了系統(tǒng)延遲。




          [9].Improving 3D Object Detection through Progressive Population Based Augmentation

          作者?|?Shuyang Cheng, Zhaoqi Leng, Ekin Dogus Cubuk, Barret Zoph, Chunyan Bai, Jiquan Ngiam, Yang Song, Benjamin Caine, Vijay Vasudevan, Congcong Li, Quoc V. Le, Jonathon Shlens, Dragomir Anguelov

          單位 | Waymo LLC;谷歌

          論文?|?https://arxiv.org/abs/2004.00831

          備注 |?ECCV?2020

          針對點云數(shù)據(jù)的目標檢測的數(shù)據(jù)增廣方法。


          3D目標檢測,LSTM,點云

          [10].An LSTM Approach to Temporal 3D Object Detection in LiDAR Point Clouds

          作者?|?Rui Huang, Wanyue Zhang, Abhijit Kundu, Caroline Pantofaru, David A Ross, Thomas Funkhouser, Alireza Fathi

          單位 | 谷歌

          論文?|?https://arxiv.org/abs/2007.12392

          主頁 |?https://sites.google.com/view/lstm-3d-detection/home

          備注 |?ECCV?2020

          再點云數(shù)據(jù)中,基于LSTM的時序3D目標檢測方法。




          AutoML,NAS

          [11].BigNAS: Scaling Up Neural Architecture Search with Big Single-Stage Models

          作者?|?Jiahui Yu, Pengchong Jin, Hanxiao Liu, Gabriel Bender, Pieter-Jan Kindermans, Mingxing Tan, Thomas Huang, Xiaodan Song, Ruoming Pang, Quoc Le

          單位 | 谷歌,University of Illinois at Urbana-Champaign

          論文?|?https://arxiv.org/abs/2003.11142

          備注 |?ECCV?2020

          在NAS中一次搜索訓(xùn)練,得到多個不需要重訓(xùn)練或后處理的子模型,并且這些子模型精度超越了EfficientNets 和 Once-for-All?網(wǎng)絡(luò)等工作。



          [12].Memory-Efficient Incremental Learning Through Feature Adaptation

          作者?|?Ahmet Iscen, Jeffrey Zhang, Svetlana Lazebnik, Cordelia Schmid

          單位 | 谷歌

          論文?|?https://arxiv.org/abs/2004.00713

          備注 |?ECCV?2020

          基于特征適應(yīng)的內(nèi)存高效的增量學(xué)習(xí)法方法。




          [13].Virtual Multi-view Fusion for 3D Semantic Segmentation

          作者?|?Abhijit Kundu, Xiaoqi Yin, Alireza Fathi, David Ross, Brian Brewington, Thomas Funkhouser, Caroline Pantofaru

          單位 | 谷歌

          論文?|?https://arxiv.org/abs/2007.13138

          主頁 |?https://abhijitkundu.info/projects/multiview_segmentation/

          備注 |?ECCV?2020

          虛擬多視圖融合用于3D語義分割。



          目標檢測

          [14].Efficient Scale-Permuted Backbone with Learned Resource Distribution

          作者?|?Xianzhi Du, Tsung-Yi Lin, Pengchong Jin, Yin Cui Mingxing Tan, Quoc Le, and Xiaodan Song

          單位 | 谷歌

          論文?|?https://www.ecva.net/papers/eccv_2020/

          papers_ECCV/papers/123680562.pdf

          備注 |?ECCV?2020

          使用NAS搜索得到目標檢測的骨干網(wǎng)絡(luò),在檢測任務(wù)中超越EfficientDet,在分類、語義分割中也取得了不錯效果。



          [15].RetrieveGAN: Image Synthesis via Differentiable Patch Retrieval

          作者?|?Hung-Yu Tseng, Hsin-Ying Lee, Lu Jiang, Ming-Hsuan Yang, Weilong Yang

          單位 | 谷歌,University of California, Merced,Yonsei University

          論文?|?https://arxiv.org/abs/2007.08513

          備注 |?ECCV?2020

          通過可微分的Patch檢索進行圖像合成。



          [16].Graph convolutional networks for learning with few clean and many noisy labels

          作者?|?Ahmet Iscen, Giorgos Tolias, Yannis Avrithis, Ondrej Chum, Cordelia Schmid

          單位 | 谷歌,Czech Technical University in Prague,Univ Rennes

          論文?|?https://arxiv.org/abs/1910.00324

          備注 |?ECCV?2020

          通過圖卷積網(wǎng)絡(luò)在少量干凈和大量含噪聲樣本中進行學(xué)習(xí)。



          [17].Deep Positional and Relational Feature Learning for Rotation-Invariant Point Cloud Analysis

          作者?|?Ruixuan Yu?, Xin Wei, Federico Tombari?, and Jian Sun

          單位 | 西安交通大學(xué);慕尼黑工業(yè)大學(xué);谷歌

          論文?|?http://www.ecva.net/papers/eccv_2020/

          papers_ECCV/papers/123550222.pdf

          備注 |?ECCV?2020

          旋轉(zhuǎn)不變的點云分析。



          [18].Federated Visual Classification with Real-World Data Distribution

          作者?|?Tzu-Ming Harry Hsu, Hang Qi, Matthew Brown

          單位 |?麻省理工學(xué)院;谷歌

          論文?|?https://arxiv.org/abs/2003.08082

          數(shù)據(jù)集 |?https://github.com/google-research/google-research/tree/master/federated_vision_datasets

          備注 |?ECCV?2020

          保護數(shù)據(jù)隱私的聯(lián)邦學(xué)習(xí)。




          [19].Joint Bilateral Learning for Real-time Universal Photorealistic Style Transfer

          作者?|?Xide Xia, Meng Zhang, Tianfan Xue, Zheng Sun, Hui Fang, Brian Kulis, Jiawen Chen

          單位 |?波士頓大學(xué);PixelShift.AI;谷歌

          論文?|?https://arxiv.org/abs/2004.10955

          備注 |?ECCV?2020

          聯(lián)合雙邊學(xué)習(xí),用于實時通用逼真的風(fēng)格遷移。




          注意力機制,視頻理解,活動識別

          [20].AssembleNet++: Assembling Modality Representations via Attention Connections

          作者?|?Michael S. Ryoo, AJ Piergiovanni, Juhana Kangaspunta, Anelia Angelova

          單位 | 谷歌,Stony Brook University

          論文?|?https://arxiv.org/abs/2008.08072

          代碼 |?https://github.com/google-research/google-research/tree/master/assemblenet

          主頁 |?https://sites.google.com/view/assemblenet/

          備注 |?ECCV?2020



          半監(jiān)督學(xué)習(xí)+圖像分割

          [21].Naive-Student: Leveraging Semi-Supervised Learning in Video Sequences for Urban Scene Segmentation

          作者?|?Liang-Chieh Chen, Raphael Gontijo Lopes, Bowen Cheng, Maxwell D. Collins, Ekin D. Cubuk, Barret Zoph, Hartwig Adam, Jonathon Shlens

          單位 | 谷歌,UIUC

          論文?|?https://arxiv.org/abs/2005.10266

          備注 |?ECCV?2020

          視頻序列的半監(jiān)督學(xué)習(xí)用于城市場景分割。



          視頻分類

          [22].AttentionNAS: Spatiotemporal Attention Cell Search for Video Classification

          作者?|?Xiaofang Wang, Xuehan Xiong, Maxim Neumann, AJ Piergiovanni, Michael S. Ryoo, Anelia Angelova, Kris M. Kitani, Wei Hua

          單位 | 谷歌;卡內(nèi)基梅隆大學(xué)

          論文?|?https://arxiv.org/abs/2007.12034

          備注 |?ECCV?2020

          將時空注意力與NAS結(jié)合的視頻分類模型。


          圖像檢索

          [23].Unifying Deep Local and Global Features for Image Search

          作者?|?Bingyi Cao, Andre Araujo, Jack Sim

          單位 | 谷歌

          論文?|?https://arxiv.org/abs/2001.05027

          代碼 |?https://github.com/tensorflow/models/

          tree/master/research/delf

          備注 |?ECCV?2020

          統(tǒng)一深度局部和全局特征的圖像搜索。



          [24].Pillar-based Object Detection for Autonomous Driving

          作者?|?Yue Wang, Alireza Fathi, Abhijit Kundu, David Ross, Caroline Pantofaru, Thomas Funkhouser, Justin Solomon

          單位 | 麻省理工學(xué)院;谷歌

          論文?|?https://arxiv.org/abs/2007.10323

          代碼 |?https://github.com/WangYueFt/pillar-od

          備注 |?ECCV?2020

          自動駕駛目標檢測。



          [25].Improving Object Detection with Selective Self-supervised Self-training

          作者?|?Yandong Li, Di Huang, Danfeng Qin, Liqiang Wang, Boqing Gong

          單位 |?中佛羅里達大學(xué);谷歌

          論文?|?https://arxiv.org/abs/2007.09162

          備注 |?ECCV?2020

          通過可選擇的自監(jiān)督自訓(xùn)練方法改進目標檢測。



          [26].Environment-agnostic Multitask Learning for Natural Language Grounded Navigation

          作者?|?Xin Eric Wang, Vihan Jain, Eugene Ie, William Yang Wang, Zornitsa Kozareva, Sujith Ravi

          單位 |?加利福尼亞大學(xué)圣克魯茲分校;加州大學(xué)圣巴巴拉分校;谷歌;亞馬遜

          論文?|?https://arxiv.org/abs/2003.00443

          代碼 |?https://github.com/google-research/valan

          備注 |?ECCV?2020

          面向自然語言的導(dǎo)航的環(huán)境不可知多任務(wù)學(xué)習(xí)。


          [27].SimAug: Learning Robust Representations from Simulation for Trajectory Prediction

          作者?|?Junwei Liang, Lu Jiang, Alexander Hauptmann

          單位 | 卡內(nèi)基梅隆大學(xué);谷歌

          論文?|?https://arxiv.org/abs/2004.02022

          代碼 |?https://github.com/JunweiLiang/Multiverse/tree/master/SimAug

          主頁 |?https://next.cs.cmu.edu/simaug/

          備注 |?ECCV?2020

          從仿真數(shù)據(jù)中學(xué)習(xí)用于軌跡預(yù)測的魯棒表示。


          瀏覽 88
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  狠狠狠综合 | 成人网站三级在线视频网站 | 久热中文字幕无均码在线观看 | 国产丝袜人妖CD露出 | 3级片免费网站免费播放无码久久 |