<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          ?SLAM:自動(dòng)可微分SLAM

          共 3368字,需瀏覽 7分鐘

           ·

          2020-12-27 19:01

          點(diǎn)擊上方小白學(xué)視覺(jué)”,選擇加"星標(biāo)"或“置頂

          重磅干貨,第一時(shí)間送達(dá)


          1
          摘要


          將表示學(xué)習(xí)方法與同時(shí)定位和建圖(SLAM)系統(tǒng)相結(jié)合是一個(gè)開(kāi)放的問(wèn)題,因?yàn)樗鼈兊母叨饶K化和復(fù)雜性.在功能上,SLAM是一種將原始傳感器輸入轉(zhuǎn)換成機(jī)器人和環(huán)境狀態(tài)分布的操作.如果這種轉(zhuǎn)換(SLAM)可以表達(dá)為一個(gè)可微函數(shù),我們可以利用基于任務(wù)的錯(cuò)誤信號(hào)來(lái)學(xué)習(xí)優(yōu)化任務(wù)性能的表示.然而,典型的稠密SLAM系統(tǒng)的幾個(gè)組件是不可區(qū)分的.在這項(xiàng)工作中,我們提出了?SLAM(gradSLAM),一種方法提出SLAM系統(tǒng)作為可微分的計(jì)算圖,它統(tǒng)一了基于梯度的學(xué)習(xí)和SLAM.我們提出了可區(qū)分的信賴域優(yōu)化器、表面測(cè)量和融合方案以及光線投射,而不犧牲精度.這種稠密的SLAM與計(jì)算圖形的融合使我們能夠從3D地圖一路回溯到2D像素,為基于梯度的SLAM學(xué)習(xí)開(kāi)辟了新的可能性.


          2
          引言


          同步定位和建圖(SLAM)幾十年來(lái)一直是機(jī)器人感知和狀態(tài)估計(jì)的核心問(wèn)題.SLAM文獻(xiàn)的很大一部分直接或間接地集中在地圖表示的問(wèn)題上.最近,基于梯度的學(xué)習(xí)方法已經(jīng)改變了幾個(gè)領(lǐng)域的前景(例如圖像識(shí)別,語(yǔ)言建模,語(yǔ)音識(shí)別).然而,這種技術(shù)在SLAM中的成功有限,從形式上來(lái)說(shuō),我們需要一個(gè)將圖像中的像素(或者一般來(lái)說(shuō),傳感器測(cè)量值)與環(huán)境的3D地圖M相關(guān)聯(lián)的表達(dá)式.我們建議通過(guò)開(kāi)發(fā)一個(gè)可微映射函數(shù)來(lái)解決這個(gè)問(wèn)題.那么映射?sM的梯度可以直觀地告訴我們,用無(wú)窮小的δs擾動(dòng)傳感器測(cè)量值s會(huì)導(dǎo)致映射m被

          改變.

          實(shí)現(xiàn)完全可微的SLAM系統(tǒng)的核心目標(biāo)是計(jì)算圖,這是大多數(shù)基于梯度的學(xué)習(xí)技術(shù)的基礎(chǔ).我們觀察到,如果一個(gè)完整的SLAM系統(tǒng)可以分解成所有可微的基本運(yùn)算,我們可以組合這些基本運(yùn)算來(lái)保持可微性.然而現(xiàn)代稠密的SLAM系統(tǒng)相當(dāng)復(fù)雜,這使得開(kāi)發(fā)這樣系統(tǒng)具有挑戰(zhàn)性.

          我們提出了?SLAM (gradSLAM),SLAM的一個(gè)可微的計(jì)算圖視圖.我們展示了SLAM中所有不可微函數(shù)是如何實(shí)現(xiàn)為光滑映射的.?SLAM框架是非常通用的,并且可以擴(kuò)展到大多數(shù)稠密SLAM系統(tǒng)的可微性.

          為了促進(jìn)對(duì)可區(qū)分SLAM系統(tǒng)及其在空間基礎(chǔ)學(xué)習(xí)中的應(yīng)用的進(jìn)一步研究,?SLAM提供了一個(gè)開(kāi)源PyTorch框架.

          官方Demo如下:

          項(xiàng)目頁(yè)面和代碼如下:

          https://gradslam.github.io


          3
          實(shí)驗(yàn)和結(jié)果


          ?1???可微優(yōu)化


          在前文中,我們引入了兩個(gè)廣義邏輯函數(shù)來(lái)計(jì)算阻尼函數(shù)以及隨后的迭代.我們進(jìn)行了多個(gè)實(shí)驗(yàn)來(lái)驗(yàn)證這種近似對(duì)非線性最小二乘解算器的性能(收斂速度、解的質(zhì)量)的影響.

          我們首先設(shè)計(jì)了幾個(gè)問(wèn)題(來(lái)自[5]的啟發(fā)),來(lái)衡量?LM相對(duì)于其不可微的對(duì)手的表現(xiàn).我們考慮三個(gè)非線性函數(shù),即指數(shù)、sine和sinc,各有三個(gè)參數(shù)a、t和w.

          對(duì)于這些函數(shù)中的每一個(gè),我們對(duì)參數(shù)p = {a,t,w}進(jìn)行統(tǒng)一采樣,以創(chuàng)建一組基本事實(shí)曲線,并對(duì)區(qū)間[6,6]中的初始猜測(cè)p0= {a0,t0,w0}進(jìn)行統(tǒng)一采樣.我們?yōu)槿齻€(gè)函數(shù)中的每一個(gè)函數(shù)抽取了100個(gè)問(wèn)題實(shí)例.我們運(yùn)行各種優(yōu)化器(如梯度下降(GD)、高斯-牛頓(GN)、LM和?LM)進(jìn)行最多10、50和100次迭代.我們計(jì)算參數(shù)空間(獨(dú)立于每個(gè)參數(shù)a、t、w)和函數(shù)空間中的均方誤差.請(qǐng)注意,這兩個(gè)誤差不一定線性相關(guān),因?yàn)閰?shù)和函數(shù)變量之間的相互作用是高度非線性的.結(jié)果見(jiàn)表4.3,可以看出,?LM的表現(xiàn)與LM幾乎相同.


          ?2???案例研究的比較分析


          我們將Kinect-Fusion、PointFusion和ICP-SLAM實(shí)現(xiàn)為可微分計(jì)算圖.在這里,我們分析了每種方法與其不可微的對(duì)應(yīng)方法的比較.表2顯示了ICP-SLAM和點(diǎn)融合的不可微和可微(?)版本的軌跡跟蹤性能.當(dāng)利用可微分建圖模塊和?LM進(jìn)行優(yōu)化時(shí),我們沒(méi)有觀察到性能的實(shí)際變化.這是在起居室序列的分割子集上計(jì)算的.

          我們還用kincontinuous的重建質(zhì)量來(lái)評(píng)價(jià)?KinectFusion的重建質(zhì)量.在ICLNUIM 基準(zhǔn)的living_room_traj0序列的一個(gè)子段上,Kintinuous的表面重建質(zhì)量為18.625,而可微KinectFusion的表面重建質(zhì)量為21.301(更好).然而,這個(gè)量是誤導(dǎo)性的,因?yàn)镵intinuous在提取的網(wǎng)格中只保留了高置信度點(diǎn)的子集,而我們的可微分KinectFusion輸出(見(jiàn)圖8)包含一些噪聲偽像,這是由于我們的平滑截?cái)嗪瘮?shù).


          ?3???定性結(jié)果


          ?SLAM在多個(gè)其他RGBD數(shù)據(jù)集上工作.具體而言,我們展示了在TUM RGB-D數(shù)據(jù)集等以及在從英特爾RealSense D435相機(jī)捕獲的內(nèi)部序列上運(yùn)行可區(qū)分SLAM系統(tǒng)的定性結(jié)果.

          圖9- 11顯示了通過(guò)對(duì)來(lái)自TUM RGB等各種序列進(jìn)行?SLAM分析獲得的定性結(jié)果.這些可區(qū)分的SLAM系統(tǒng)都完全在圖形處理器上執(zhí)行,并且能夠計(jì)算關(guān)于任何中間變量的梯度(例如相機(jī)姿態(tài)、像素強(qiáng)度/深度、優(yōu)化參數(shù)、相機(jī)固有特性等).


          ?4???梯度分析


          ?SLAM的計(jì)算圖形方法允許我們恢復(fù)關(guān)于3D表面重建的2D(或2.5D)測(cè)量的有意義的梯度.在圖12中,最上面一行示出了可微分變換的RGB-D圖像—使用?SLAM(有噪聲的)TSDF表面測(cè)量,然后與更精確的全局TSDF圖進(jìn)行比較.對(duì)齊體積的元素比較給我們一個(gè)重建誤差,它的梯度使用由?SLAM維護(hù)的計(jì)算圖(并在深度圖像空間中可視化)反向傳播到輸入深度圖.在第二行中,我們有意引入一個(gè)mask來(lái)遮擋RGB-D圖像中的一個(gè)小區(qū)域(40 × 40),從而引入一個(gè)重建偽影.計(jì)算體積誤差在全局和局部遮擋TSDF體積之間,檢查相對(duì)于輸入的梯度指示遮擋表面對(duì)體積誤差的每像素貢獻(xiàn).因此,?SLAM提供了計(jì)算梯度的豐富解釋:它們表示每個(gè)像素對(duì)最終三維重建的貢獻(xiàn).


          ?5???應(yīng)用


          在圖13中,我們類似地在一個(gè)深度中引入這種限流器(頂行)和像素噪聲(底行)使用?PointFusion.重建場(chǎng)景. 然后,我們計(jì)算噪聲表面圖和真實(shí)表面圖之間的倒角距離,并對(duì)每個(gè)像素的誤差進(jìn)行反向傳播.最小化的損失導(dǎo)致噪聲和遮擋區(qū)域的目標(biāo)恢復(fù).我們另外在圖14中示出了一個(gè)RGB-D圖像完成任務(wù)(來(lái)自均勻噪聲).


          4
          結(jié)論


          我們引入了?SLAM,一個(gè)可區(qū)分的計(jì)算圖框架,它通過(guò)提供關(guān)于輸入圖像和深度圖的明確梯度,為大量基于定位和建圖的任務(wù)實(shí)現(xiàn)了基于梯度的學(xué)習(xí).我們展示了一系列不同的案例研究,并展示了梯度在跟蹤、建圖和融合階段的表現(xiàn).


          下載1:OpenCV-Contrib擴(kuò)展模塊中文版教程
          在「小白學(xué)視覺(jué)」公眾號(hào)后臺(tái)回復(fù):擴(kuò)展模塊中文教程即可下載全網(wǎng)第一份OpenCV擴(kuò)展模塊教程中文版,涵蓋擴(kuò)展模塊安裝、SFM算法、立體視覺(jué)、目標(biāo)跟蹤、生物視覺(jué)、超分辨率處理等二十多章內(nèi)容。

          下載2:Python視覺(jué)實(shí)戰(zhàn)項(xiàng)目31講
          小白學(xué)視覺(jué)公眾號(hào)后臺(tái)回復(fù):Python視覺(jué)實(shí)戰(zhàn)項(xiàng)目31講,即可下載包括圖像分割、口罩檢測(cè)、車道線檢測(cè)、車輛計(jì)數(shù)、添加眼線、車牌識(shí)別、字符識(shí)別、情緒檢測(cè)、文本內(nèi)容提取、面部識(shí)別等31個(gè)視覺(jué)實(shí)戰(zhàn)項(xiàng)目,助力快速學(xué)校計(jì)算機(jī)視覺(jué)。

          下載3:OpenCV實(shí)戰(zhàn)項(xiàng)目20講
          小白學(xué)視覺(jué)公眾號(hào)后臺(tái)回復(fù):OpenCV實(shí)戰(zhàn)項(xiàng)目20講,即可下載含有20個(gè)基于OpenCV實(shí)現(xiàn)20個(gè)實(shí)戰(zhàn)項(xiàng)目,實(shí)現(xiàn)OpenCV學(xué)習(xí)進(jìn)階。

          下載4:leetcode算法開(kāi)源書(shū)
          小白學(xué)視覺(jué)公眾號(hào)后臺(tái)回復(fù):leetcode,即可下載。每題都 runtime beats 100% 的開(kāi)源好書(shū),你值得擁有!




          交流群


          歡迎加入公眾號(hào)讀者群一起和同行交流,目前有SLAM、三維視覺(jué)、傳感器、自動(dòng)駕駛、計(jì)算攝影、檢測(cè)、分割、識(shí)別、醫(yī)學(xué)影像、GAN、算法競(jìng)賽等微信群(以后會(huì)逐漸細(xì)分),請(qǐng)掃描下面微信號(hào)加群,備注:”昵稱+學(xué)校/公司+研究方向“,例如:”張三?+?上海交大?+?視覺(jué)SLAM“。請(qǐng)按照格式備注,否則不予通過(guò)。添加成功后會(huì)根據(jù)研究方向邀請(qǐng)進(jìn)入相關(guān)微信群。請(qǐng)勿在群內(nèi)發(fā)送廣告,否則會(huì)請(qǐng)出群,謝謝理解~


          瀏覽 33
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  美日韩黄色 | 国产强 暴 疼 哭 处 | 国产区激情 | 免费无码又爽又高潮视频 | 天天干天天舔 |