基于深度學(xué)習(xí)的特征提取和匹配
轉(zhuǎn)載自 | 計算機(jī)視覺life
作者 | 黃浴
鏈接 | https://zhuanlan.zhihu.com/p/78053406
計算機(jī)視覺需要圖像預(yù)處理,比如特征提取,包括特征點(diǎn),邊緣和輪廓之類。以前做跟蹤和3-D重建,首先就得提取特征。特征點(diǎn)以前成功的就是SIFT/SURF/FAST之類,現(xiàn)在完全可以通過CNN模型形成的特征圖來定義。
特征提取





1) 給定輸入圖像塊P,檢測器提供得分圖S; 2) 在得分圖S上執(zhí)行soft argmax 并返回單個潛在特征點(diǎn)位置x。 3) 用空間變換器層裁剪(Spatial Transformer layer Crop)提取一個以x為中心的較小的補(bǔ)丁p(如圖5-3), 作為朝向估計器的輸入。 4) 朝向估計器預(yù)測補(bǔ)丁方向θ。 5) 根據(jù)該方向第二個空間變換器層(圖中的Rot)旋轉(zhuǎn)p產(chǎn)生pθ。 6) pθ送到描述子網(wǎng)絡(luò)計算特征向量d。


特征匹配
MatchNet【3】


UCN【4】





DGC-Net【5】






參考文獻(xiàn)
1. E. Simo-Serra et al., “Discriminative learning of deep convolutional feature point descriptors”. ICCV 2015 2. K Yi et al.,“Learned Invariant Feature Transform”, arXiv 1603.09114, 2016 3. X Xu et al.,“MatchNet: Unifying Feature and Metric Learning for Patch-Based Matching”, CVPR 2015 4. C Choyet al., “Universal Correspondence Network”,NIPS 20165. I Melekhov et al, “DGC-Net: Dense Geometric Correspondence Network”, CVPR 2019
雙一流高校研究生團(tuán)隊創(chuàng)建 ↓
專注于計算機(jī)視覺原創(chuàng)并分享相關(guān)知識 ?
整理不易,點(diǎn)贊三連!
評論
圖片
表情
