<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          基于投票方式的機(jī)器人裝配姿態(tài)估計(jì)

          共 2659字,需瀏覽 6分鐘

           ·

          2021-02-17 15:19

          點(diǎn)擊上方“小白學(xué)視覺(jué)”,選擇“星標(biāo)”
          干貨第一時(shí)間送達(dá)
          論文題目:《Voting-Based Pose Estimation for Robotic Assembly Using a 3D Sensor
          這篇文章被發(fā)表在2012年的IEEE International Conference on Robotics and Automation上。
          摘要:本文提出了一種基于投票的適用于三維傳感器的位姿估計(jì)算法,能夠快速代替機(jī)器人行業(yè)、計(jì)算機(jī)視覺(jué)和游戲應(yīng)用程序中二維相應(yīng)的算法。最近研究表明在投票框架中,一對(duì)有方向的三維點(diǎn),即物體表面上的點(diǎn)有其對(duì)應(yīng)的法線可以實(shí)現(xiàn)快速和魯棒的位姿估計(jì)。盡管定向表面點(diǎn)對(duì)于有足夠曲率變化的對(duì)象具有辨別能力,但對(duì)于許多工業(yè)和現(xiàn)實(shí)生活中大部分平面的對(duì)象來(lái)說(shuō),它們不夠緊湊和辨別能力強(qiáng)。由于邊緣在二維配準(zhǔn)中起關(guān)鍵作用,深度不連續(xù)性在三維中起關(guān)鍵作用。在本文中,我們研究和發(fā)展了一組姿態(tài)估計(jì)算法,以更好地利用這一邊界信息。除了有方向的表面點(diǎn),我們使用了另外兩個(gè)基本元素:有方向的邊界點(diǎn)和邊界線段。實(shí)驗(yàn)表明,這些經(jīng)過(guò)精心選擇的原語(yǔ)編碼的信息更緊湊,從而為廣泛的工業(yè)零件提供更高的精度,并使得計(jì)算速度更快,本文使用提出的算法和一個(gè)3D傳感器來(lái)演示了一個(gè)實(shí)用的機(jī)器人撿貨系統(tǒng)。
          一、揀貨系統(tǒng)概述


          圖1
          如上圖左邊所示,展示了撿箱系統(tǒng)的設(shè)置。本系統(tǒng)使用一個(gè)附在六軸工業(yè)機(jī)器人手臂上的3D傳感器來(lái)估計(jì)隨機(jī)放置在箱子里的物體的姿態(tài)。3D傳感器是基于結(jié)構(gòu)光使用紅外激光,并提供三維數(shù)據(jù)作為像素的深度圖。3D傳感器相對(duì)于機(jī)器人手臂進(jìn)行校準(zhǔn),從而允許使用估計(jì)的姿態(tài)抓取和挑選對(duì)象。右圖為算法流程圖,本系統(tǒng)使用3D傳感器掃描對(duì)象的箱子,給定目標(biāo)物體的三維CAD模型,使用基于投票的算來(lái)掃描三維點(diǎn)云對(duì)目標(biāo)物體進(jìn)行檢測(cè)和姿態(tài)估計(jì),這提供了多個(gè)粗的位姿假設(shè)。該系統(tǒng)選擇幾個(gè)最優(yōu)位姿假設(shè),并使用ICP算法的變體對(duì)其進(jìn)行單獨(dú)的優(yōu)化。該算法利用當(dāng)前位姿估計(jì)對(duì)CAD模型進(jìn)行渲染,并通過(guò)對(duì)渲染模型表面的采樣生成三維點(diǎn)。然后為模型中的每個(gè)三維點(diǎn)計(jì)算掃描點(diǎn)云中最近的三維點(diǎn),并利用三維點(diǎn)對(duì)應(yīng)更新姿態(tài)估計(jì)。改進(jìn)后的配準(zhǔn)誤差由對(duì)應(yīng)場(chǎng)景與模型點(diǎn)之間的平均距離給出,當(dāng)投票算法計(jì)算出的粗位姿不正確,或者由于被其他物體遮擋而丟失部分物體時(shí),配準(zhǔn)誤差會(huì)很大。如果配準(zhǔn)誤差很小,并且機(jī)器人手臂能安全地到達(dá)估計(jì)的姿態(tài),系統(tǒng)就會(huì)抓取目標(biāo)。
          二、投票位姿估計(jì)


          A.點(diǎn)對(duì)特征

          1)S2S — Surface-to-Surface
          2)B2B — Boundary-to-Boundary
          3)S2B — Surface-to-Boundary
          4)L2L — Line-to-Line
          圖2

          B.物體表示

          C.投票機(jī)制

          在計(jì)算點(diǎn)對(duì)特征并構(gòu)造哈希表結(jié)構(gòu)的基礎(chǔ)上,通過(guò)計(jì)算場(chǎng)景對(duì)特征與一組對(duì)應(yīng)的模型對(duì)特征之間的剛體變換,找到提出假設(shè),為了提高搜索效率,本文采用了投票方案,利用局部坐標(biāo)將投票空間縮減為2D空間。首先,在哈希表中搜索場(chǎng)景點(diǎn)對(duì),其中是來(lái)自場(chǎng)景的基元集,并找到對(duì)應(yīng)的模型點(diǎn)對(duì), 然后將點(diǎn)對(duì)的參考點(diǎn)對(duì)準(zhǔn)中間坐標(biāo)系,如圖3所示。為了完全對(duì)齊對(duì),參考點(diǎn)和,應(yīng)該通過(guò)圍繞法線旋轉(zhuǎn)物體來(lái)對(duì)齊。計(jì)算平面旋轉(zhuǎn)角度后,局部坐標(biāo)由參考模型點(diǎn)對(duì)與平面旋轉(zhuǎn)角度定義,到的變換為:

          圖3

          D.L2L點(diǎn)對(duì)的投票機(jī)制


          圖4

          E.位姿聚類(lèi)

          本文采用的是歐式聚類(lèi),首先對(duì)原始的pose假設(shè)按投票數(shù)的降序排序,從最高的投票中創(chuàng)建了一個(gè)新的集群。如果下一個(gè)位姿假設(shè)靠近一個(gè)已有的簇,則將該假設(shè)添加到簇中,簇中心更新為簇內(nèi)位姿假設(shè)的平均值。如果下一個(gè)假設(shè)不接近任何一個(gè)集群,它就會(huì)創(chuàng)建一個(gè)新的集群。在平移和旋轉(zhuǎn)過(guò)程中,采用固定閾值進(jìn)行近似測(cè)試。平移距離計(jì)算和均值化在三維歐幾里得空間中進(jìn)行,旋轉(zhuǎn)距離計(jì)算和均值化使用四元數(shù)表示。聚類(lèi)后,對(duì)聚類(lèi)按總票數(shù)的遞減順序進(jìn)行排序,總票數(shù)決定了估計(jì)姿態(tài)的置信度。
          三、實(shí)驗(yàn)結(jié)果
          1)合成數(shù)據(jù)
          2)真實(shí)數(shù)據(jù)
          論文下載方式
          在公眾號(hào)「3D視覺(jué)工坊」后臺(tái)回復(fù)「機(jī)器人裝配姿態(tài)估計(jì)」,即可獲得論文下載鏈接。

          參考文獻(xiàn)

          [1] C. Choi and H. I. Christensen, “Robust 3D visual tracking using particle filtering on the SE(3) group,” in ICRA, 2011.
          [2] R. Raskar, K. Tan, R. Feris, J. Yu, and M. Turk, “Non-photorealistic
          camera: Depth edge detection and stylized rendering using multi-flash imaging,” ACM Trans. Graphics, vol. 23, pp. 679–688, 2004.
          本文僅做學(xué)術(shù)分享,如有侵權(quán),請(qǐng)聯(lián)系刪文。

          下載1:OpenCV-Contrib擴(kuò)展模塊中文版教程
          在「小白學(xué)視覺(jué)」公眾號(hào)后臺(tái)回復(fù):擴(kuò)展模塊中文教程,即可下載全網(wǎng)第一份OpenCV擴(kuò)展模塊教程中文版,涵蓋擴(kuò)展模塊安裝、SFM算法、立體視覺(jué)、目標(biāo)跟蹤、生物視覺(jué)、超分辨率處理等二十多章內(nèi)容。

          下載2:Python視覺(jué)實(shí)戰(zhàn)項(xiàng)目52講
          小白學(xué)視覺(jué)公眾號(hào)后臺(tái)回復(fù):Python視覺(jué)實(shí)戰(zhàn)項(xiàng)目即可下載包括圖像分割、口罩檢測(cè)、車(chē)道線檢測(cè)、車(chē)輛計(jì)數(shù)、添加眼線、車(chē)牌識(shí)別、字符識(shí)別、情緒檢測(cè)、文本內(nèi)容提取、面部識(shí)別等31個(gè)視覺(jué)實(shí)戰(zhàn)項(xiàng)目,助力快速學(xué)校計(jì)算機(jī)視覺(jué)。

          下載3:OpenCV實(shí)戰(zhàn)項(xiàng)目20講
          小白學(xué)視覺(jué)公眾號(hào)后臺(tái)回復(fù):OpenCV實(shí)戰(zhàn)項(xiàng)目20講,即可下載含有20個(gè)基于OpenCV實(shí)現(xiàn)20個(gè)實(shí)戰(zhàn)項(xiàng)目,實(shí)現(xiàn)OpenCV學(xué)習(xí)進(jìn)階。

          交流群


          歡迎加入公眾號(hào)讀者群一起和同行交流,目前有SLAM、三維視覺(jué)、傳感器、自動(dòng)駕駛、計(jì)算攝影、檢測(cè)、分割、識(shí)別、醫(yī)學(xué)影像、GAN、算法競(jìng)賽等微信群(以后會(huì)逐漸細(xì)分),請(qǐng)掃描下面微信號(hào)加群,備注:”昵稱(chēng)+學(xué)校/公司+研究方向“,例如:”張三?+?上海交大?+?視覺(jué)SLAM“。請(qǐng)按照格式備注,否則不予通過(guò)。添加成功后會(huì)根據(jù)研究方向邀請(qǐng)進(jìn)入相關(guān)微信群。請(qǐng)勿在群內(nèi)發(fā)送廣告,否則會(huì)請(qǐng)出群,謝謝理解~


          瀏覽 31
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  一级a做视频在线免费观看 | 真实嫖妓在线观看免费 | 91网站18禁 | 婷婷久久五月天激情 | 欧美性爱福利视频 |