<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          關于雙目立體視覺的三大基本算法及發(fā)展現(xiàn)狀的總結

          共 6103字,需瀏覽 13分鐘

           ·

          2020-08-03 03:20

          加入極市專業(yè)CV交流群,與?10000+來自港科大、北大、清華、中科院、CMU、騰訊、百度?等名校名企視覺開發(fā)者互動交流!

          同時提供每月大咖直播分享、真實項目需求對接、干貨資訊匯總,行業(yè)技術交流。關注?極市平臺?公眾號?,回復?加群,立刻申請入群~

          來源|3D視覺工坊

          雙目立體視覺一直是機器視覺研究領域的發(fā)展熱點和難點,“”是因為雙目立體視覺有著及其廣闊的應用前景,且隨著光學、計算機科學等學科的不斷發(fā)展,雙目立體技術將不斷進步直到應用到人類生活的方方面面?!?strong style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;">難”則是因為受到攝像機、鏡頭等硬件設備及一些相關算法的限制,雙目立體視覺的研究及如何更好的應用到生產實際中仍有待在座的各位去進行突破。

          一.簡介

          雙目立體視覺是機器視覺中的一個重要分支,自上世紀60年代中期開創(chuàng)以來,經(jīng)過幾十年的發(fā)展,如今在機器人視覺、航空測繪、軍事應及醫(yī)學成像、工業(yè)檢測上應用極其廣泛。雙目立體視覺基于視差原理并利用成像設備從不同的位置獲取被測物體的左右兩幅圖像,然后根據(jù)三角測量原理計算空間點在二維圖像的位置偏差,最后再利用位置偏差進行三維重建來獲取被測物體的三維幾何信息(本文不對雙目立體視覺的數(shù)學原理進行詳細介紹)。

          二.雙目立體視覺的三大基本算法的原理及其代碼實現(xiàn)(基于opencv)

          雙目立體視覺中常用的基于區(qū)域的局部匹配準則主要有圖像序列中對應像素差的絕對值之和SAD(sum of absolute differences)、對應像素差的平方之和SSD(sum of squared differences)及半全局匹配算法SGM(semi—global matching)。

          2.1 SAD(sum of absolute differences)的原理

          匹配算法SAD的基本思想是對經(jīng)行對準后的左右視圖圖像的對應像素塊的對應像素差的絕對值進行求和。

          數(shù)學公式如下:

          SAD匹配算法的基本流程如下:
          ①輸入兩幅已經(jīng)校正實現(xiàn)行對準的左視圖(Left-Image)及右視圖(Right-Image)。
          ②對左視圖Left-Image進行掃描選定一個錨點并構建一個類似于卷積核的小窗口。
          ③用此小窗口覆蓋Left-Image,并選擇出小窗口覆蓋區(qū)域的全部像素點
          ④同樣用此小窗口覆蓋Right-Image,并選擇出小窗口覆蓋區(qū)域的全部像素點。
          ⑤Left-Image覆蓋區(qū)域的像素減去Right-Image覆蓋區(qū)域的像素,并求出所有像素點的差的絕對值之和。
          ⑥移動Right-Image的小窗口并重復④—⑤的操作(注意此處會設置一個搜索范圍,超過此范圍則跳出)
          ⑦找到這個范圍內SAD值最小的小窗口,此時便找到了與Left-Image錨點的最佳匹配的像素塊。
          2.1.1 SAD(sum of absolute differences)的基于opencv的C++代碼實現(xiàn)
          首先先定義一個SAD 算法的頭文件(SAD_Algorithm.h):
          #include"iostream"#include"opencv2/opencv.hpp"#include"iomanip"using namespace std;using namespace cv;class SAD{public: SAD() :winSize(7), DSR(30) {} SAD(int _winSize, int _DSR) :winSize(_winSize), DSR(_DSR) {} Mat computerSAD(Mat &L, Mat &R); //計算SAD
          private: int winSize; //卷積核的尺寸 int DSR; //視差搜索范圍};
          Mat SAD::computerSAD(Mat &L, Mat &R){ int Height = L.rows; int Width = L.cols;
          Mat Kernel_L(Size(winSize, winSize), CV_8U, Scalar::all(0)); Mat Kernel_R(Size(winSize, winSize), CV_8U, Scalar::all(0)); Mat Disparity(Height, Width, CV_8U, Scalar(0)); //視差圖
          for (int i = 0; i//左圖從DSR開始遍歷 { for (int j = 0; j { Kernel_L = L(Rect(i, j, winSize, winSize)); Mat MM(1, DSR, CV_32F, Scalar(0)); for (int k = 0; k { int x = i - k; if (x >= 0) { Kernel_R = R(Rect(x, j, winSize, winSize)); Mat Dif; absdiff(Kernel_L, Kernel_R, Dif);//求差的絕對值之和 Scalar ADD = sum(Dif); float a = ADD[0]; MM.at<float>(k) = a; } } Point minLoc; minMaxLoc(MM, NULL, NULL, &minLoc, NULL); int loc = minLoc.x; //int loc=DSR-loc; Disparity.at<char>(j, i) = loc * 16; } double rate = double(i) / (Width); cout << "已完成" << setprecision(2) << rate * 100 << "%" << endl; //顯示處理進度 } return Disparity;}
          調用示例:#include"SAD_Algorithm.h"int main(int argc, char* argv[]){ Mat Img_L = imread("Teddy_L.png", 0); //此處調用的圖像已放入項目文件夾中 Mat Img_R = imread("Teddy_R.png", 0); Mat Disparity; //創(chuàng)建視差圖
          SAD mySAD(7, 30); //給出SAD的參數(shù)
          Disparity = mySAD.computerSAD(Img_L, Img_R); imshow("Teddy_L", Img_L); imshow("Teddy_R", Img_R); imshow("Disparity", Disparity); //顯示視差圖
          waitKey(); system("pause"); //按任意鍵退出 return 0;}
          2.1.2 SAD算法的運行效果
          可以看出SAD算法雖然運行較快,但效果較差。
          2.2 SSD(sum of squared differences)的原理
          SSD(sum of squared differences)算法大致與SAD(sum of absolute differences)相似。
          數(shù)學公式如下:
          因SSD匹配算法與SAD匹配算法的過程及代碼實現(xiàn)相類似,考慮到篇幅長度的原因,故SSD算法的基本過程及代碼實現(xiàn)在本文中不在贅述,讀者可去自行實現(xiàn)。
          2.3 SGBM(semi-global block matching)的原理
          SGM(semi-global matching)是一種用于計算雙目立體視覺中的disparity的半全局匹配算法。其在opencv中的實現(xiàn)為SGBM(semi-global block matching)。
          SGBM的原理:設置一個和disparity map(由每個像素點的disparity所構成)相關的全局能量函數(shù),使這個能量函數(shù)最小。
          原始文獻:Heiko Hirschmuller. Stereo processing by semiglobal matching and mutual information.Pattern Analysis and Machine Intelligence, IEEE Transactions on, 30(2):328–341, 2008.
          能量函數(shù)如下:
          D--disparity map(視差圖)
          p、q—圖像中的某個像素
          Np—像素點Pd 相鄰像素點(一般認為是8連通)
          C(P,Dp)--當前像素點的disparity為Dp時,該像素點的cost
          P1、P2—懲罰系數(shù),分別適用于當像素P相鄰像素中的disparity值與P的disparity差值為1和大于1時
          I[]—當[]內的參數(shù)為真時返回1,否則返回0
          SGBM算法的基本流程如下:
          ①預處理:使用sobel算子對源圖像進行處理,并將經(jīng)sobel算子處理后的圖像映射為新圖像,并得到圖像的梯度信息用于后續(xù)的計算代價。
          ②代價計算:使用采樣方法對經(jīng)預處理得到的圖像梯度信息計算梯度代價、使用采樣方法對源圖像計算SAD代價。
          ③動態(tài)規(guī)劃:默認四條路經(jīng),并對路徑規(guī)劃的參數(shù)P1,P2進行設置(包括P1、P2、cn(圖像通道數(shù)量)以及SADWindowsize(SAD窗口大?。┑脑O置)。
          ④后處理:包括唯一性檢測、亞像素插值、左右一致性檢測、連通區(qū)域的檢測。
          2.3.1 SGBM(semi-global block matching)的基于opencv的C++代碼實現(xiàn)
          首先先定義一個SGBM算法的頭文件(SGBM_Algorithm.h):
          具體參數(shù)見代碼及其注釋(若讀者需優(yōu)化可自行調整),不再贅述
          enum { STEREO_BM = 0, STEREO_SGBM = 1, STEREO_HH = 2, STEREO_VAR = 3, STEREO_3WAY = 4 };#include"iostream"#include"opencv2/opencv.hpp"using namespace std;using namespace cv;
          void calDispWithSGBM(Mat Img_L, Mat Img_R, Mat &imgDisparity8U){ Size imgSize = Img_L.size(); int numberOfDisparities = ((imgSize.width / 8) + 15) & -16; Ptr sgbm = StereoSGBM::create(0, 16, 3);
          int cn = Img_L.channels(); //左圖像的通道數(shù) int SADWindowSize = 9; int sgbmWinSize = SADWindowSize > 0 ? SADWindowSize : 3;
          sgbm->setMinDisparity(0); //minDisparity最小視差默認為0;
          sgbm->setNumDisparities(numberOfDisparities); //numDisparity視差搜索范圍,其值必須為16的整數(shù)倍;
          sgbm->setP1(8 * cn*sgbmWinSize*sgbmWinSize); sgbm->setP2(32 * cn*sgbmWinSize*sgbmWinSize); //一般建議懲罰系數(shù)P1、P2取此兩值,P1、P2控制視差圖的光滑度 //P2越大,視差圖越平滑
          sgbm->setDisp12MaxDiff(1); //左右一致性檢測最大容許誤差閾值
          sgbm->setPreFilterCap(31); //預處理濾波器的截斷值,預處理的輸出值僅保留 //[-preFilterCap, preFilterCap]范圍內的值,參數(shù)范圍:1 - 31
          sgbm->setUniquenessRatio(10); //視差唯一性百分比:視差窗口范圍內最低代價是次低代價的(1 + uniquenessRatio/100)倍時 //最低代價對應的視差值才是該像素點的視差,否則該像素點的視差為 0 ,不能為負值,一般去5——15
          sgbm->setSpeckleWindowSize(100); //視差連通區(qū)域像素點個數(shù)的大小:對于每一個視差點,當其連通區(qū)域的像素點個數(shù)小于 //speckleWindowSize時,認為該視差值無效,是噪點。
          sgbm->setSpeckleRange(32); //視差連通條件:在計算一個視差點的連通區(qū)域時,當下一個像素點視差變化絕對值大于 //speckleRange就認為下一個視差像素點和當前視差像素點是不連通的。
          sgbm->setMode(0); //模式選擇
          sgbm->setBlockSize(sgbmWinSize); //設置SAD代價計算窗口,一般在3*3到21*21之間 //blockSize(SADWindowSize) 越小,也就是匹配代價計算的窗口越小,視差圖噪聲越大; //blockSize越大,視差圖越平滑; //太大的size容易導致過平滑,并且誤匹配增多,體現(xiàn)在視差圖中空洞增多
          //三種模式選擇(HH、SGBM、3WAY) int algorithm = STEREO_SGBM;
          if (algorithm == STEREO_HH) sgbm->setMode(StereoSGBM::MODE_HH); else if (algorithm == STEREO_SGBM) sgbm->setMode(StereoSGBM::MODE_SGBM); else if (algorithm == STEREO_3WAY) sgbm->setMode(StereoSGBM::MODE_SGBM_3WAY);
          Mat imgDisparity16S = Mat(Img_L.rows, Img_L.cols, CV_16S);
          sgbm->compute(Img_L, Img_R, imgDisparity16S);
          //--Display it as a CV_8UC1 image:16位有符號轉為8位無符號 imgDisparity16S.convertTo(imgDisparity8U, CV_8U, 255 / (numberOfDisparities*16.));}
          調用示例:#include"SGBM_Algorithm.h"int main(){ Mat Img_L = imread("Teddy_L.png", 0); Mat Img_R = imread("Teddy_R.png", 0); Mat Disparity8U = Mat(Img_L.rows, Img_R.cols, CV_8UC1);//創(chuàng)建一個Disparity圖像
          calDispWithSGBM(Img_L, Img_R, Disparity8U); imshow("Teddy_L", Img_L); imshow("Teddy_R", Img_R); imshow("Disparity", Disparity8U);
          waitKey(); system("pause"); //按任意鍵退出 return 0;}
          2.3.2 SGBM算法的運行效果
          我還順便調整了SADWindowsize的大小來給讀者探討并展示當設置不同SADWindowsize大小時對Disparity效果圖的影響,其結果如下(皆為MODE_SGBM模式下):
          由上述在不同SADWindowsize大小設置(其他參數(shù)保持不變)的效果圖對比下我們可得知如下結論:
          SADWindowsize過小時,視差圖的噪聲較多;隨著SADWindowsize的增大,視圖越平滑,但當SADWindowsize過大時,視差圖中的空洞現(xiàn)象會增加;故在選擇SADWindowsize的大小時,應選取合適的大?。ńㄗh選擇SADWindowsize=9)。

          三.雙目立體視覺的發(fā)展現(xiàn)狀

          目前在國外,雙目立體視覺技術已廣泛運用于生產生活實際中,但在我國,雙目立體視覺技術仍處在起步階段,仍需要在座的各位發(fā)奮圖強、力爭創(chuàng)新。
          3.1 雙目立體視覺的發(fā)展方向
          就雙目立體視覺的發(fā)展現(xiàn)況和發(fā)展目標(達到類似于人眼的通用雙目立體視覺)仍是路漫漫其修遠兮,我認為進一步的發(fā)展方向可以歸納如下:
          ①探索新的更具有通用性的計算理論和匹配算法結構,以解決目前存在的灰度失真、噪聲干擾以及幾何畸變的問題。
          ②提高算法的性能,對算法進行優(yōu)化,盡可能向實時效果推進。
          ③建立更有效的雙目體視模型能更充分地反映立體視覺不確定性的本質屬性,為匹配提供更多的約束信息,降低立體匹配的難度。
          ④強調場景與任務的約束,建立適用于不同場景和任務的雙目立體視覺系統(tǒng)的標準和方法。
          3.2 雙目立體視覺的國內外發(fā)展動態(tài)
          雙目體視目前主要應用于四個領域:機器人導航、微操作系統(tǒng)的參數(shù)檢測、三維測量和虛擬現(xiàn)實。
          目前在國外,日本大阪大學自適應機械系統(tǒng)研究院研制了一種自適應雙目視覺伺服系統(tǒng),利用雙目體視的原理,如每幅圖像中相對靜止的三個標志為參考,實時計算目標圖像的雅可比短陣,從而預測出目標下一步運動方向,實現(xiàn)了對動方式未知的目標的自適應跟蹤。該系統(tǒng)僅要求兩幅圖像中都有靜止的參考標志,無需攝像機參數(shù)。
          日本奈良科技大學信息科學學院提出了一種基于雙目立體視覺的增強現(xiàn)實系統(tǒng)(ar)注冊方法,通過動態(tài)修正特征點的位置提高注冊精度。
          日本東京大學將實時雙目立體視覺和機器人整體姿態(tài)信息集成,開發(fā)了仿真機器人動態(tài)行長導航系統(tǒng),為機器人根據(jù)實時情況建立實時地圖從而實現(xiàn)障礙物檢測。
          日本岡山大學使用立體顯微鏡、兩個ccd攝像頭、微操作器等研制了使用立體顯微鏡控制微操作器的視覺反饋系統(tǒng),用于對細胞進行操作,對鐘子進行基因注射和微裝配等。
          麻省理工學院計算機系統(tǒng)提出了一種新的用于智能交通工具的傳感器融合方式,由雷達系統(tǒng)提供目標深度的大致范圍,利用雙目立體視覺提供粗略的目標深度信息,結合改進的圖像分割算法,從而實現(xiàn)在高速環(huán)境下對視頻圖像中的目標位置進行分割。
          華盛頓大學與微軟公司合作為火星衛(wèi)星“探測者”號研制了寬基線立體視覺系統(tǒng),使“探測者”號能夠在火星上對其即將跨越的幾千米內的地形進行精確的定位及導航。
          在國內,浙江大學機械系統(tǒng)完全利用透視成像原理,采用雙目體視方法實現(xiàn)了對多自由度機械裝置的動態(tài)、精確位姿檢測,僅需從兩幅對應圖像中抽取必要的特征點的三維坐標,信息量少,處理速度快,尤其適于動態(tài)情況。
          維視圖像公司采用雙目ccd相機,從工業(yè)相機內參標定、鏡頭畸變標定、立體匹配、特征點分割處理等方面給出了詳細的數(shù)學模型和算法接口。其雙目標定軟件ccas采用了張正友平面標定法,可以實現(xiàn)機器人導航、微操作系統(tǒng)的參數(shù)檢測、三維測量和虛擬現(xiàn)實等應用。
          東南大學電子工程系基于雙目立體視覺,提出了一種灰度相關多峰值視差絕對值極小化立體匹配新方法,可對三維不規(guī)則物體(偏轉線圈)的三維空間坐標進行非接觸精密測量。
          哈工大采用異構雙目活動視覺系統(tǒng)實現(xiàn)了全自主足球機器人導航。將一個固定攝像機和一個可以水平旋轉的攝像機,分別安裝在機器人的頂部和中下部,可以同時監(jiān)視不同方位視點,體現(xiàn)出比人類視覺優(yōu)越的一面。即使在實際比賽中當其他傳感器失效的情況下,僅僅依靠雙目協(xié)調仍然可以實現(xiàn)全自主足球機器人導航。
          火星863計劃課題“人體三維尺寸的非接觸測量”,采用“雙視點投影光柵三維測量”原理,由雙攝像機獲取圖像對,通過計算機進行圖像數(shù)據(jù)處理,不僅可以獲取服裝設計所需的特征尺寸,還可根據(jù)需要獲取人體圖像上任意一點的三維坐標。

          四.筆者總結

          本文從雙目立體視覺的三個最基本的匹配算法出發(fā),講述了其基本原理、步驟及其opencv代碼實現(xiàn)并對雙目立體視覺的發(fā)展趨勢及現(xiàn)狀做了總結,可供讀者參考借鑒,若有紕漏,請見諒!


          推薦閱讀



          添加極市小助手微信(ID : cv-mart),備注:研究方向-姓名-學校/公司-城市(如:目標檢測-小極-北大-深圳),即可申請加入極市技術交流群,更有每月大咖直播分享、真實項目需求對接、求職內推、算法競賽、干貨資訊匯總、行業(yè)技術交流,一起來讓思想之光照的更遠吧~

          △長按添加極市小助手

          △長按關注極市平臺,獲取最新CV干貨

          覺得有用麻煩給個在看啦~??
          瀏覽 27
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  国产精品一级毛片无码视频 | 免费日皮视频网站 | 亚洲福利一区二区三区 | 久久综合操 | 国产一级片色 |