徹底搞懂視覺-慣性SLAM:VINS-Fusion原理精講與源碼剖析


自動駕駛和服務(wù)機器人行業(yè)增速明顯,自2021年以來,多家公司開始逐步落地自己的L2~L4級別的輔助/自動駕駛產(chǎn)品(無人出租車或者配送機器人),如百度、滴滴、美團、華為、特斯拉、Waymo等。其中,基于視覺傳感器和慣性傳感器的同時定位與建圖技術(shù)(SLAM)是該領(lǐng)域的核心技術(shù)之一,各大公司均有相關(guān)在招崗位。由于視覺-慣性SLAM對從業(yè)者的理論和代碼要求都很高,導(dǎo)致行業(yè)人才供小于求,許多公司更是不惜重金招聘一個合格的SLAM算法工程師,并且薪資待遇極其豐厚。以下是某照片網(wǎng)站對SLAM相關(guān)職位的要求和待遇:



視覺SLAM由于成本低,單目/雙目結(jié)合多傳感器的方案越來越受青睞,而視覺慣性里程計更是多傳感融合方案的佼佼者;其中,最著名的方案當屬VINS-Fusion(VINS-Mono的擴展版)。VINS-Fusion是香港科技大學(xué)于2019年開源的視覺-慣性SLAM系統(tǒng),KITTI Visual Odometry 榜單中排名最靠前的開源雙目 VO 方案,主要支持:單目+IMU、純雙目、雙目+IMU、雙目+IMU+GPS,是一個可以用于室外場景中無人車輛/機器人自主定位的優(yōu)秀方案,以下是官方測試效果展示:
幾種方案效果對比













課程優(yōu)勢



2021年8月29日正式開課,歷時三個月,每兩周更新一次,具體時間以學(xué)習(xí)群內(nèi)公告為主。


點擊購買與咨詢
群號:910070197
▲課程咨詢QQ群,了解更多
評論
圖片
表情
