基于深度學(xué)習(xí)的特征提取和匹配
點(diǎn)擊上方“小白學(xué)視覺”,選擇加"星標(biāo)"或“置頂”
重磅干貨,第一時間送達(dá)
本文轉(zhuǎn)自|計算機(jī)視覺工坊
特征提取
-
1) 給定輸入圖像塊P,檢測器提供得分圖S; -
2) 在得分圖S上執(zhí)行soft argmax 并返回單個潛在特征點(diǎn)位置x。 -
3) 用空間變換器層裁剪(Spatial Transformer layer Crop)提取一個以x為中心的較小的補(bǔ)丁p(如圖5-3), 作為朝向估計器的輸入。 -
4) 朝向估計器預(yù)測補(bǔ)丁方向θ。 -
5) 根據(jù)該方向第二個空間變換器層(圖中的Rot)旋轉(zhuǎn)p產(chǎn)生pθ。 -
6) pθ送到描述子網(wǎng)絡(luò)計算特征向量d。
特征匹配
-
MatchNet【3】
-
UCN【4】
-
DGC-Net【5】
參考文獻(xiàn)
-
1. E. Simo-Serra et al., “Discriminative learning of deep convolutional feature point descriptors”. ICCV 2015 -
2. K Yi et al.,“Learned Invariant Feature Transform”, arXiv 1603.09114, 2016 -
3. X Xu et al.,“MatchNet: Unifying Feature and Metric Learning for Patch-Based Matching”, CVPR 2015 -
4. C Choyet al., “Universal Correspondence Network”,NIPS 2016 -
5. I Melekhov et al, “DGC-Net: Dense Geometric Correspondence Network”, CVPR 2019
交流群
歡迎加入公眾號讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器、自動駕駛、計算攝影、檢測、分割、識別、醫(yī)學(xué)影像、GAN、算法競賽等微信群(以后會逐漸細(xì)分),請掃描下面微信號加群,備注:”昵稱+學(xué)校/公司+研究方向“,例如:”張三 + 上海交大 + 視覺SLAM“。請按照格式備注,否則不予通過。添加成功后會根據(jù)研究方向邀請進(jìn)入相關(guān)微信群。請勿在群內(nèi)發(fā)送廣告,否則會請出群,謝謝理解~
評論
圖片
表情

