做目標(biāo)檢測,這6篇就夠了:CVPR 2020目標(biāo)檢測論文盤點
目標(biāo)檢測是計算機(jī)視覺中的經(jīng)典問題之一。憑借大量可用數(shù)據(jù)、更快的 GPU 和更好的算法,現(xiàn)在我們可以輕松訓(xùn)練計算機(jī)以高精度檢測出圖像中的多個對象。

A Hierarchical Graph Network for 3D Object Detection on Point Clouds
HVNet: Hybrid Voxel Network for LiDAR Based 3D Object Detection
Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud
Camouflaged Object Detection
Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector
D2Det: Towards High-Quality Object Detection and Instance Segmentation

論文地址:
https://openaccess.thecvf.com/content_CVPR_2020/papers/Chen_A_Hierarchical_Graph_Network_for_3D_Object_Detection_on_Point_CVPR_2020_paper.pdf
?
具體而言,該研究提出了新的 shape-attentive GConv (SA-GConv),它能通過建模點的相對幾何位置來描述物體的形狀,進(jìn)而捕獲局部形狀特征。
基于 SA-GConv 的 U 形網(wǎng)絡(luò)捕獲多層次特征,通過改進(jìn)的投票模塊(voting module)將這些特征映射到相同的特征空間中,進(jìn)而生成候選框(proposal)。
基于 GConv 的 U 形網(wǎng)絡(luò)(GU-net);
候選框生成器;
候選框推理模塊(ProRe Module):使用全連接圖對候選框進(jìn)行推理。
該研究提出的模型主要以 VoteNet 作為 backbone,并基于它提出了一系列改進(jìn)。
由下圖可以看出:
將 VoteNet 中的 PointNet++ 換成特征捕捉能力更強(qiáng)的 GCN;
為 up-sample 的多層中的每一層都接上 voting 模塊,整合多個尺度的特征;
在 proposal 之間也使用 GCN 來增強(qiáng)特征的學(xué)習(xí)能力。


論文地址:
https://openaccess.thecvf.com/content_CVPR_2020/papers/Ye_HVNet_Hybrid_Voxel_Network_for_LiDAR_Based_3D_Object_Detection_CVPR_2020_paper.pdf

體素化:將點云指定給二維體素網(wǎng)格;
體素特征提?。河嬎憔W(wǎng)格相關(guān)的點級特征,然后將其輸入到 PointNet 風(fēng)格特征編碼器;
投影:將點級特征聚合為體素級特征,并投影到其原始網(wǎng)格。這就形成了一個偽圖像特征圖。




論文地址:
https://openaccess.thecvf.com/content_CVPR_2020/papers/Shi_Point-GNN_Graph_Neural_Network_for_3D_Object_Detection_in_a_CVPR_2020_paper.pdf
項目地址:
https://github.com/WeijingShi/Point-GNN
該研究指出,以往使用 CNN 的方法處理點云數(shù)據(jù)時往往需要在空間劃分 Grids,會出現(xiàn)大量的空白矩陣元素,并不適合稀疏點云;
近來出現(xiàn)的類似 PointNet 的方法對點云數(shù)據(jù)進(jìn)行分組和采樣,取得了不錯的結(jié)果,但計算成本太大。于是該研究提出一種新型 GNN 網(wǎng)絡(luò)——Point-GNN。
圖構(gòu)建:使用體素降采樣點云進(jìn)行圖構(gòu)建;
GNN 目標(biāo)檢測(T 次迭代);
邊界框合并和評分。


論文地址:
https://openaccess.thecvf.com/content_CVPR_2020/papers/Fan_Camouflaged_Object_Detection_CVPR_2020_paper.pdf?
項目地址:
https://github.com/DengPingFan/SINet/
此外,該研究還創(chuàng)建了一個名為 COD10K 的新型數(shù)據(jù)集。它包含 10,000 張圖像,涵蓋許多自然場景中的偽裝物體。
該數(shù)據(jù)集具有 78 個類別,每張圖像均具備類別標(biāo)簽、邊界框、實例級標(biāo)簽和摳圖級(matting-level)標(biāo)簽。


搜索模塊(SM),用于搜索偽裝的物體;
識別模塊(IM),用于檢測該物體。



論文地址:
https://openaccess.thecvf.com/content_CVPR_2020/papers/Fan_Few-Shot_Object_Detection_With_Attention-RPN_and_Multi-Relation_Detector_CVPR_2020_paper.pdf
該研究提出一個新型注意力網(wǎng)絡(luò),能在 RPN 模塊和檢測器上學(xué)習(xí) support set 和 query set 之間的匹配關(guān)系;
下圖中的 weight shared network 有多個分支,可以分為兩類,一類用于 query set,另一類用于 support set(support set 的分支可以有多個,用來輸入不同的 support 圖像,圖中只畫了一個),處理 query set 的分支是 Faster RCNN 網(wǎng)絡(luò)。



論文地址:?
https://openaccess.thecvf.com/content_CVPR_2020/papers/Cao_D2Det_Towards_High_Quality_Object_Detection_and_Instance_Segmentation_CVPR_2020_paper.pdf?
項目地址:
https://github.com/JialeCao001/D2Det
這篇論文提出了一種提高定位精度和分類準(zhǔn)確率的方法 D2Det,以提升目標(biāo)檢測的效果。
針對這兩項挑戰(zhàn),該研究分別提出了 dense local regression(DLR)和 discriminative RoI pooling(DRP)兩個模塊。
其中 DLR 與 anchor-free 方法 FCOS 的 detect loss 類似,DRP 則是利用了 deformable convolution 的思想,分別從第一階段和第二階段提取準(zhǔn)確的目標(biāo)特征區(qū)域,進(jìn)而獲得相應(yīng)的性能提升。具體方法流程如下圖所示:


計算機(jī)視覺頂會 CVPR 2020 提供了很多目標(biāo)檢測等領(lǐng)域的研究論文,如果你想獲取更多論文信息,請點擊以下網(wǎng)址:
https://openaccess.thecvf.com/CVPR2020
一網(wǎng)打盡:從 Mask RCNN到Y(jié)olo v4

共6大實戰(zhàn)項目

課程大綱如下



CV博士授課

在售價399元的課程,今天大家可以使用優(yōu)惠券按照299元購買,有興趣的小伙伴抓緊搶購,先報先占位!
優(yōu)惠券:?645A777EDB
購買流程:
復(fù)制優(yōu)惠券>掃描二維碼>點擊直接購買>點擊優(yōu)惠券>輸入優(yōu)惠券
掃碼搶占名額???
(報名過程中,有任何問題請加客服微信:julyedukefu12)
戳↓↓“閱讀原文”查看課程詳情!
