<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          在OpenCV中基于深度學(xué)習(xí)的邊緣檢測

          共 5900字,需瀏覽 12分鐘

           ·

          2021-05-10 08:31

          本文轉(zhuǎn)自:AI算法與圖像處理

          導(dǎo)讀

          分析了Canny的優(yōu)劣,并給出了OpenCV使用深度學(xué)習(xí)做邊緣檢測的流程,文末有代碼鏈接。

          在這篇文章中,我們將學(xué)習(xí)如何在OpenCV中使用基于深度學(xué)習(xí)的邊緣檢測,它比目前流行的canny邊緣檢測器更精確。邊緣檢測在許多用例中是有用的,如視覺顯著性檢測,目標(biāo)檢測,跟蹤和運動分析,結(jié)構(gòu)從運動,3D重建,自動駕駛,圖像到文本分析等等。

          什么是邊緣檢測?


          邊緣檢測是計算機視覺中一個非常古老的問題,它涉及到檢測圖像中的邊緣來確定目標(biāo)的邊界,從而分離感興趣的目標(biāo)。最流行的邊緣檢測技術(shù)之一是Canny邊緣檢測,它已經(jīng)成為大多數(shù)計算機視覺研究人員和實踐者的首選方法。讓我們快速看一下Canny邊緣檢測。


          Canny邊緣檢測算法


          1983年,John Canny在麻省理工學(xué)院發(fā)明了Canny邊緣檢測。它將邊緣檢測視為一個信號處理問題。其核心思想是,如果你觀察圖像中每個像素的強度變化,它在邊緣的時候非常高。

          在下面這張簡單的圖片中,強度變化只發(fā)生在邊界上。所以,你可以很容易地通過觀察像素強度的變化來識別邊緣。

          現(xiàn)在,看下這張圖片。強度不是恒定的,但強度的變化率在邊緣處最高。(微積分復(fù)習(xí):變化率可以用一階導(dǎo)數(shù)(梯度)來計算。)

          Canny邊緣檢測器通過4步來識別邊緣:

          1. 去噪:因為這種方法依賴于強度的突然變化,如果圖像有很多隨機噪聲,那么會將噪聲作為邊緣。所以,使用5×5的高斯濾波器平滑你的圖像是一個非常好的主意。
          2. 梯度計算:下一步,我們計算圖像中每個像素的強度的梯度(強度變化率)。我們也計算梯度的方向。

          梯度方向垂直于邊緣,它被映射到四個方向中的一個(水平、垂直和兩個對角線方向)。
          1. 非極大值抑制:現(xiàn)在,我們想刪除不是邊緣的像素(設(shè)置它們的值為0)。你可能會說,我們可以簡單地選取梯度值最高的像素,這些就是我們的邊。然而,在真實的圖像中,梯度不是簡單地在只一個像素處達到峰值,而是在臨近邊緣的像素處都非常高。因此我們在梯度方向上取3×3附近的局部最大值。

          1. 遲滯閾值化:在下一步中,我們需要決定一個梯度的閾值,低于這個閾值所有的像素都將被抑制(設(shè)置為0)。而Canny邊緣檢測器則采用遲滯閾值法。遲滯閾值法是一種非常簡單而有效的方法。我們使用兩個閾值來代替只用一個閾值:

            高閾值 = 選擇一個非常高的值,這樣任何梯度值高于這個值的像素都肯定是一個邊緣。

            低閾值 = 選擇一個非常低的值,任何梯度值低于該值的像素絕對不是邊緣。

            在這兩個閾值之間有梯度的像素會被檢查,如果它們和邊緣相連,就會留下,否則就會去掉。

          遲滯閾值化


          Canny 邊緣檢測的問題:


          由于Canny邊緣檢測器只關(guān)注局部變化,沒有語義(理解圖像的內(nèi)容)理解,精度有限(很多時候是這樣)。

          Canny邊緣檢測器在這種情況下會失敗,因為沒有理解圖像的上下文

          語義理解對于邊緣檢測是至關(guān)重要的,這就是為什么使用機器學(xué)習(xí)或深度學(xué)習(xí)的基于學(xué)習(xí)的檢測器比canny邊緣檢測器產(chǎn)生更好的結(jié)果。


          OpenCV中基于深度學(xué)習(xí)的邊緣檢測


          OpenCV在其全新的DNN模塊中集成了基于深度學(xué)習(xí)的邊緣檢測技術(shù)。你需要OpenCV 3.4.3或更高版本。這種技術(shù)被稱為整體嵌套邊緣檢測或HED,是一種基于學(xué)習(xí)的端到端邊緣檢測系統(tǒng),使用修剪過的類似vgg的卷積神經(jīng)網(wǎng)絡(luò)進行圖像到圖像的預(yù)測任務(wù)。

          HED利用了中間層的輸出。之前的層的輸出稱為side output,將所有5個卷積層的輸出進行融合,生成最終的預(yù)測。由于在每一層生成的特征圖大小不同,它可以有效地以不同的尺度查看圖像。

          網(wǎng)絡(luò)結(jié)構(gòu):整體嵌套邊緣檢測

          HED方法不僅比其他基于深度學(xué)習(xí)的方法更準確,而且速度也比其他方法快得多。這就是為什么OpenCV決定將其集成到新的DNN模塊中。以下是這篇論文的結(jié)果:

          在OpenCV中訓(xùn)練深度學(xué)習(xí)邊緣檢測的代碼


          OpenCV使用的預(yù)訓(xùn)練模型已經(jīng)在Caffe框架中訓(xùn)練過了,可以這樣加載:

          sh download_pretrained.sh

          網(wǎng)絡(luò)中有一個crop層,默認是沒有實現(xiàn)的,所以我們需要自己實現(xiàn)一下。

          class CropLayer(object):
              def __init__(self, params, blobs):
                  self.xstart = 0
                  self.xend = 0
                  self.ystart = 0
                  self.yend = 0

              # Our layer receives two inputs. We need to crop the first input blob
              # to match a shape of the second one (keeping batch size and number of channels)
              def getMemoryShapes(self, inputs):
                  inputShape, targetShape = inputs[0], inputs[1]
                  batchSize, numChannels = inputShape[0], inputShape[1]
                  height, width = targetShape[2], targetShape[3]

                  self.ystart = (inputShape[2] - targetShape[2]) // 2
                  self.xstart = (inputShape[3] - targetShape[3]) // 2
                  self.yend = self.ystart + height
                  self.xend = self.xstart + width

                  return [[batchSize, numChannels, height, width]]

              def forward(self, inputs):
                  return [inputs[0][:,:,self.ystart:self.yend,self.xstart:self.xend]]

          現(xiàn)在,我們可以重載這個類,只需用一行代碼注冊該層。

          cv.dnn_registerLayer('Crop', CropLayer)

          現(xiàn)在,我們準備構(gòu)建網(wǎng)絡(luò)圖并加載權(quán)重,這可以通過OpenCV的dnn.readNe函數(shù)。

          net = cv.dnn.readNet(args.prototxt, args.caffemodel)

          現(xiàn)在,下一步是批量加載圖像,并通過網(wǎng)絡(luò)運行它們。為此,我們使用cv2.dnn.blobFromImage方法。該方法從輸入圖像中創(chuàng)建四維blob。

          blob = cv.dnn.blobFromImage(image, scalefactor, size, mean, swapRB, crop)

          其中:

          image:是我們想要發(fā)送給神經(jīng)網(wǎng)絡(luò)進行推理的輸入圖像。

          scalefactor:圖像縮放常數(shù),很多時候我們需要把uint8的圖像除以255,這樣所有的像素都在0到1之間。默認值是1.0,不縮放。

          size:輸出圖像的空間大小。它將等于后續(xù)神經(jīng)網(wǎng)絡(luò)作為blobFromImage輸出所需的輸入大小。

          swapRB:布爾值,表示我們是否想在3通道圖像中交換第一個和最后一個通道。OpenCV默認圖像為BGR格式,但如果我們想將此順序轉(zhuǎn)換為RGB,我們可以將此標(biāo)志設(shè)置為True,這也是默認值。

          mean:為了進行歸一化,有時我們計算訓(xùn)練數(shù)據(jù)集上的平均像素值,并在訓(xùn)練過程中從每幅圖像中減去它。如果我們在訓(xùn)練中做均值減法,那么我們必須在推理中應(yīng)用它。這個平均值是一個對應(yīng)于R, G, B通道的元組。例如Imagenet數(shù)據(jù)集的均值是R=103.93, G=116.77, B=123.68。如果我們使用swapRB=False,那么這個順序?qū)⑹?B, G, R)。

          crop:布爾標(biāo)志,表示我們是否想居中裁剪圖像。如果設(shè)置為True,則從中心裁剪輸入圖像時,較小的尺寸等于相應(yīng)的尺寸,而其他尺寸等于或大于該尺寸。然而,如果我們將其設(shè)置為False,它將保留長寬比,只是將其調(diào)整為固定尺寸大小。

          在我們這個場景下:

          inp = cv.dnn.blobFromImage(frame, scalefactor=1.0, size=(args.width, args.height),                 
                                     mean=(104.00698793116.66876762122.67891434), swapRB=False,                 
                                     crop=False)

          現(xiàn)在,我們只需要調(diào)用一下前向方法。

          net.setInput(inp)
          out = net.forward()
          out = out[00]
          out = cv.resize(out, (frame.shape[1], frame.shape[0]))
          out = 255 * out
          out = out.astype(np.uint8)
          out=cv.cvtColor(out,cv.COLOR_GRAY2BGR)
          con=np.concatenate((frame,out),axis=1)
          cv.imshow(kWinName,con)

          結(jié)果:

          中間的圖像是人工標(biāo)注的圖像,右邊是HED的結(jié)果

          中間的圖像是人工標(biāo)注的圖像,右邊是HED的結(jié)果

          文中的代碼:https://github.com/sankit1/cv-tricks.com/tree/master/OpenCV/Edge_detection


          英文原文:https://cv-tricks.com/opencv-dnn/edge-detection-hed/


           End 


          聲明:部分內(nèi)容來源于網(wǎng)絡(luò),僅供讀者學(xué)術(shù)交流之目的。文章版權(quán)歸原作者所有。如有不妥,請聯(lián)系刪除。


          瀏覽 68
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  一级a一级a爰片免费啪啪女女 | 密桃视频黄片高清无码 | 8x8x国产| 含羞草一区二区三区无码观看 | 久久婷婷色香五月综合 |