<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          經(jīng)典的圖像語(yǔ)義分割模型

          共 2559字,需瀏覽 6分鐘

           ·

          2021-10-25 12:56

          點(diǎn)擊下方卡片,關(guān)注“新機(jī)器視覺(jué)”公眾號(hào)

          視覺(jué)/圖像重磅干貨,第一時(shí)間送達(dá)

          來(lái)源:人工智能感知信息處理算法研究院

               經(jīng)典的基于 CNN 的圖像語(yǔ)義分割模型有 FCN、SegNet、U-Net、PSPNet 和 DeepLab,主要針對(duì) FCN、SegNet 和 DeepLab 三個(gè)經(jīng)典模型進(jìn)行簡(jiǎn)要介紹。 
               FCN 之所以稱(chēng)為全卷積神經(jīng)網(wǎng)絡(luò)模型,是因?yàn)?FCN 去掉了圖像分類(lèi)網(wǎng)絡(luò)中的全連接層,全連接層得到的是整張圖像的分類(lèi)結(jié)果,而圖像語(yǔ)義分割是實(shí)現(xiàn)對(duì)每一個(gè)像素點(diǎn)的分類(lèi),因此去掉全連接層,且去掉全連接層后可使模型適應(yīng)不同尺寸圖像的輸入,由于最后的特征圖在提取特征過(guò)程中會(huì)丟失圖像位置信息,即得到的特征圖像素小于原圖像,基于該問(wèn)題,F(xiàn)CN 利用反卷積(Deconvolution)的方法對(duì)特征圖進(jìn)行上采樣操作,將其恢復(fù)到原始圖像尺寸,同時(shí)采用跳躍(Skip)結(jié)構(gòu)對(duì)不同深度層的特征圖進(jìn)行融合,然后利用監(jiān)督函數(shù)不斷進(jìn)行反向傳播,調(diào)整學(xué)習(xí)參數(shù),最后得到最優(yōu)的參數(shù)模型。FCN 的網(wǎng)絡(luò)結(jié)構(gòu)圖如下:



               SegNet 是在 FCN 的基礎(chǔ)上進(jìn)行的改進(jìn),同時(shí)引入了預(yù)訓(xùn)練模型 VGG-16 提取圖像特征,SegNet 不同于 FCN,SegNet 采用的是對(duì)稱(chēng)的編碼器-解碼器結(jié)構(gòu),這種結(jié)構(gòu)主要分為編碼器和解碼器兩個(gè)部分,編碼器采用 VGG-16 模型對(duì)圖像進(jìn)行特征提取,如上圖所示,每個(gè)編碼器包含多層卷積操作、BN、ReLU 以及池化層,其中卷積操作采用的是  same padding 方式,即圖像大小不會(huì)發(fā)生改變,而池化層采用的是步長(zhǎng)為 2 的2 × 2的最大池化,會(huì)降低圖像分辨率,如圖中所示,每一層編碼器得到的特征圖除了傳入下一層編碼器進(jìn)行特征提取外,同時(shí)要傳入對(duì)應(yīng)層的解碼器進(jìn)行上采樣,如此一來(lái),有多少層編碼器就會(huì)對(duì)應(yīng)地有多少層解碼器,最終解碼器得到的特征圖會(huì)輸入到 SoftMax 分類(lèi)器中,繼而得到最后的預(yù)測(cè)圖。




               DeepLab 模型是圖像語(yǔ)義分割領(lǐng)域中非常經(jīng)典的一個(gè)模型,包括 DeepLab  V1、V2和 V3 三個(gè)版本,由于 DeepLab V3 是在 DeepLab V2 的基礎(chǔ)上進(jìn)行的改進(jìn),因此,本小節(jié)只簡(jiǎn)單介紹 DeepLab V1 和 DeepLab V2。 


               DeepLab V1 借鑒了 FCN 的核心思想,以 VGG-16 作為主干網(wǎng)絡(luò),去掉了最后的全連接層,同時(shí)也剪掉了兩個(gè)池化層,池化層是的主要作用是快速地?cái)U(kuò)大感受野,最大程度地利用上下文信息,但池化層的缺點(diǎn)是會(huì)導(dǎo)致圖像尺寸縮小,丟失空間位置信息,影響上采樣過(guò)程中信息的恢復(fù)。為了解決這個(gè)問(wèn)題,DeepLab V1 引入空洞卷積,總結(jié)來(lái)說(shuō)就是空洞卷積可以在保證參數(shù)不增加的前提下擴(kuò)大感受野,彌補(bǔ)了剪掉池化層導(dǎo)致的感受野變小的問(wèn)題,同時(shí) DeepLab V1 也引入了條件隨機(jī)場(chǎng)來(lái)增加分割精準(zhǔn)性。 

               由于 ResNet 相對(duì)于 VGG-16 來(lái)說(shuō)具有更好的表現(xiàn)力,因此 DeepLab  V2 利用ResNet101 預(yù)訓(xùn)練模型替換了 DeepLab  V1 中的 VGG-16 模型,同時(shí)提出了空洞空間金字塔池化(簡(jiǎn)稱(chēng) ASPP),并將該結(jié)構(gòu)融入到了 ResNet101 中,ASPP 的每個(gè)分支處設(shè)置了不同的空洞率,可以提取到一張圖像中大小不同的同種目標(biāo)。DeepLab V1 和 DeepLabV2 的主要模塊分別是 Deep Lab-LargeFOV 和 DeepLab-ASPP,如下圖所示。







          —版權(quán)聲明—

          僅用于學(xué)術(shù)分享,版權(quán)屬于原作者。

          若有侵權(quán),請(qǐng)聯(lián)系微信號(hào):yiyang-sy 刪除或修改!


          —THE END—
          瀏覽 109
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  国产精品白浆无码流出视频网站 | 九九九九久久久久 | 五月激情婷婷中文字幕 | 国产精品久久久婷婷五月 | 一级黄色免费 |