<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          雙目立體匹配步驟詳解

          共 3613字,需瀏覽 8分鐘

           ·

          2020-08-21 00:21

          點擊上方小白學視覺”,選擇加"星標"或“置頂

          重磅干貨,第一時間送達

          來源:https://blog.csdn.net/rs_lys/article/details/83302323
          根據Schrstein和Szeliski的總結,雙目立體匹配可劃分為四個步驟:匹配代價計算、代價聚合、視差計算和視差優(yōu)化
          一 、匹配代價計算
          匹配代價計算的目的是衡量待匹配像素與候選像素之間的相關性。兩個像素無論是否為同名點,都可以通過匹配代價函數計算匹配代價,代價越小則說明相關性越大,是同名點的概率也越大。
          每個像素在搜索同名點之前,往往會指定一個視差搜索范圍D(Dmin?~ Dmax),視差搜索時將范圍限定在D內,用一個大小為W×H×D(W為影像寬度,H為影像高度)的三維矩陣C來存儲每個像素在視差范圍內每個視差下的匹配代價值。矩陣C通常稱為DSI(Disparity Space Image)。
          匹配代價計算的方法有很多,傳統的攝影測量中,使用灰度絕對值差(AD,Absolute Differences)1、灰度絕對值差之和(SAD,Sum of Absolute Differences)、歸一化相關系數(NCC,Normalized Cross-correlation)等方法來計算兩個像素的匹配代價;計算機視覺中,多使用互信息(MI,Mutual Information)法2?3、Census變換(CT,Census Transform)法4?5、Rank變換(RT, Rank Transform)法6?7、BT(Birchfield and Tomasi)法8?等作為匹配代價的計算方法。不同的代價計算算法都有各自的特點,對各類數據的表現也不盡相同,選擇合適的匹配代價計算函數是立體匹配中不可忽視的關鍵步驟。
          圖1 DSI示意圖(C(x,y,d)代表像素(x,y)在視差為d時的匹配代價)
          二、?代價聚合
          代價聚合的根本目的是讓代價值能夠準確的反映像素之間的相關性。上一步匹配代價的計算往往只會考慮局部信息,通過兩個像素鄰域內一定大小的窗口內的像素信息來計算代價值,這很容易受到影像噪聲的影響,而且當影像處于弱紋理或重復紋理區(qū)域,這個代價值極有可能無法準確的反映像素之間的相關性,直接表現就是真實同名點的代價值非最小。
          而代價聚合則是建立鄰接像素之間的聯系,以一定的準則,如相鄰像素應該具有連續(xù)的視差值,來對代價矩陣進行優(yōu)化,這種優(yōu)化往往是全局的,每個像素在某個視差下的新代價值都會根據其相鄰像素在同一視差值或者附近視差值下的代價值來重新計算,得到新的DSI,用矩陣S來表示。
          實際上代價聚合類似于一種視差傳播步驟,信噪比高的區(qū)域匹配效果好,初始代價能夠很好的反映相關性,可以更準確的得到最優(yōu)視差值,通過代價聚合傳播至信噪比低、匹配效果不好的區(qū)域,最終使所有影像的代價值都能夠準確反映真實相關性。常用的代價聚合方法有掃描線法、動態(tài)規(guī)劃法、SGM算法中的路徑聚合法等。
          圖2 代價聚合前后視差圖示意圖
          三 、視差計算
          視差計算即通過代價聚合之后的代價矩陣S來確定每個像素的最優(yōu)視差值,通常使用贏家通吃算法(WTA,Winner-Takes-All)來計算,如圖2所示,即某個像素的所有視差下的代價值中,選擇最小代價值所對應的視差作為最優(yōu)視差。這一步非常簡單,這意味著聚合代價矩陣S的值必須能夠準確的反映像素之間的相關性,也表明上一步代價聚合步驟是立體匹配中極為關鍵的步驟,直接決定了算法的準確性。
          圖3 贏家通吃(WTA)算法示意圖
          四、視差優(yōu)化
          視差優(yōu)化的目的是對上一步得到的視差圖進行進一步優(yōu)化,改善視差圖的質量,包括剔除錯誤視差、適當平滑以及子像素精度優(yōu)化等步驟,一般采用左右一致性檢查(Left-Right Check)算法剔除因為遮擋和噪聲而導致的錯誤視差;采用剔除小連通區(qū)域算法來剔除孤立異常點;采用中值濾波(Median Filter)、雙邊濾波(Bilateral Filter)等平滑算法對視差圖進行平滑;另外還有一些有效提高視差圖質量的方法如魯棒平面擬合(Robust Plane Fitting)、亮度一致性約束(Intensity Consistent)、局部一致性約束(Locally Consistent)等也常被使用。
          由于WTA算法所得到的視差值是整像素精度,為了獲得更高的子像素精度,需要對視差值進行進一步的子像素細化,常用的子像素細化方法是一元二次曲線擬合法,通過最優(yōu)視差下的代價值以及左右兩個視差下的代價值擬合一條一元二次曲線,取二次曲線的極小值點所代表的視差值為子像素視差值。如圖3所示。
          圖4 二次曲線擬合法子像素位置計算示意圖
          局部匹配算法的步驟一般包括匹配代價計算、代價聚合和視差計算三個步驟,全局算法則包括匹配代價計算,視差計算與視差優(yōu)化三個步驟,半全局算法SGM則四個步驟都有。
          參考文獻:

          1.KANADE T, KANO H, KIMURA S, et al. Development of a video-rate stereo machine: Ieee/rsj International Conference on Intelligent Robots and Systems 95. ‘human Robot Interaction and Cooperative Robots’, Proceedings, 2002[C].???


          2.KIM?J, KOLMOGOROV V, ZABIH R. Visual Correspondence Using Energy Minimization and Mutual Information: IEEE International Conference on Computer Vision, 2003. Proceedings, 2008[C].???

          3.EGNAL G. Mutual Information as a Stereo Correspondence Measure[J]. Technical Reports, 2000.???

          4.MA L, LI J, MA J, et al. A Modified Census Transform Based on the Neighborhood Information for Stereo Matching Algorithm: Seventh International Conference on Image and Graphics, 2013[C].???

          5.BAIK Y K, JO J H, LEE K M. Fast Census Transform-based Stereo Algorithm using SSE2: The 12th Korea-Japan Joint Workshop on Frontiers of Computer Vision, Tokushima, Japan, 2006[C].???

          6.GU Z, SU X, LIU Y, et al. Local stereo matching with adaptive support-weight, rank transform and disparity calibration[J]. Pattern Recognition Letters, 2008,29(9):1230-1235.???

          7.BANKS J, BENNAMOUN M, KUBIK K, et al. A constraint to improve the reliability of stereo matching using the rank transform: Acoustics, Speech, and Signal Processing, 1999. on 1999 IEEE International Conference, 1999[C].???

          8.BIRCHFIELD S, TOMASI C. A Pixel Dissimilarity Measure That Is Insensitive to Image Sampling[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 1998,20(4):401-406.???


          本文僅做學術分享,如有侵權,請聯系刪文。

          瀏覽 56
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  视频一区二区三区在线观看 | 一级黄网站 | 日韩一区二区在线视频 | 亚洲午夜福利一区二区三区 | 性爱激情小说视频 |