在手機上實現(xiàn)實時的單眼3D重建
點擊左上方藍字關注我們

轉載自 | 計算機視覺工坊
一、背景與貢獻
本文提出了以中多視圖關鍵幀深度估計方法,該方法即使在具有一定姿態(tài)誤差的無紋理區(qū)域中也可以魯棒地估計密集深度,消除由姿勢誤差或無紋理區(qū)域引起的不可靠深度,并通過深度神經(jīng)網(wǎng)絡進一步優(yōu)化了噪聲深度。
本文提出了以中有效的增量網(wǎng)格生成方法,該方法可以融合估計的關鍵幀深度圖以在線重建場景的表面網(wǎng)格,并逐步更新局部網(wǎng)格三角。這種增量網(wǎng)格方法不僅可以為前端的AR效果提供在線密集的3D表面重建,還可以確保將網(wǎng)格生成在后端CPU模塊上的實時性能。這對于以前的在線3D重建系統(tǒng)來說是有難度的。
本文提出了帶有單眼相機的實時密集表面網(wǎng)格重建管線,在手機上實現(xiàn)了單眼關鍵幀深度估計和增量網(wǎng)格更新的執(zhí)行速度不超過后端的125ms/關鍵幀,在跟蹤前端6DoF上快速到足以超過每秒25幀(FPS)。
二、算法流程








三、主要結果

原關鍵幀圖像及其兩個選定的參考關鍵幀圖像;“室內樓梯”參考幀中的兩個代表性像素及其極線繪制出從前端的6DoF跟蹤來證明某些相機姿態(tài)誤差的數(shù)據(jù)。
通過反投影進行的多視圖SGM和相應點云的深度估計結果。
基于置信度的深度濾波后的結果及其對應的結果
在基于DNN的參考及其相應的點云之后的最終深度估計結果。



END
整理不易,點贊三連↓
評論
圖片
表情
