<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          FCN、Unet、Unet++:醫(yī)學(xué)圖像分割網(wǎng)絡(luò)一覽

          共 4814字,需瀏覽 10分鐘

           ·

          2020-09-27 07:34

          作者丨Error@知乎
          來(lái)源丨h(huán)ttps://zhuanlan.zhihu.com/p/159173338
          轉(zhuǎn)自 | 極市平臺(tái)

          導(dǎo)讀

          ?

          本文先厘清了語(yǔ)義分割、實(shí)例分割和全景分割等定義的區(qū)別。在此基礎(chǔ)上,進(jìn)一步分析了FCN、Unet、Unet++等算法在醫(yī)學(xué)圖像上的適用情況。

          先上目錄:

          1. 相關(guān)知識(shí)點(diǎn)解釋
          2. FCN 網(wǎng)絡(luò)算法的理解
          3. Unet 網(wǎng)絡(luò)算法的理解
          4. Unet++ 網(wǎng)絡(luò)算法的理解
          5. Unet+++ 網(wǎng)絡(luò)算法的理解
          6. DeepLab v3+ 算法簡(jiǎn)閱
          7. Unet在醫(yī)學(xué)圖像上的適用與CNN分割算法的簡(jiǎn)要總結(jié)

          一、相關(guān)知識(shí)點(diǎn)解釋

          1、圖像分割中幾種定義的區(qū)別

          語(yǔ)義分割(Semantic Segmentation):就是對(duì)一張圖像上的所有像素點(diǎn)進(jìn)行分類。(eg: FCN/Unet/Unet++/...)

          實(shí)例分割(Instance Segmentation):可以理解為目標(biāo)檢測(cè)語(yǔ)義分割的結(jié)合。(eg: Mask R-CNN/...)相對(duì)目標(biāo)檢測(cè)的邊界框,實(shí)例分割可精確到物體的邊緣;相對(duì)語(yǔ)義分割,實(shí)例分割需要標(biāo)注出圖上同一物體的不同個(gè)體。

          全景分割(Panoptic Segmentation):可以理解為語(yǔ)義分割實(shí)例分割的結(jié)合。實(shí)例分割只對(duì)圖像中的object進(jìn)行檢測(cè),并對(duì)檢測(cè)到的object進(jìn)行分割;全景分割是對(duì)圖中的所有物體包括背景都要進(jìn)行檢測(cè)和分割。

          圖像分類:圖像中的氣球是一個(gè)類別。[1]
          語(yǔ)義分割:分割出氣球和背景。
          目標(biāo)檢測(cè):圖像中有7個(gè)目標(biāo)氣球,并且檢測(cè)出每個(gè)氣球的坐標(biāo)位置。
          實(shí)例分割:圖像中有7個(gè)不同的氣球,在像素層面給出屬于每個(gè)氣球的像素。

          2. CNN特征學(xué)習(xí)的優(yōu)勢(shì)

          高分辨率特征(較淺的卷積層)感知域較小,有利于feature map和原圖進(jìn)行對(duì)齊的,也就是我說(shuō)的可以提供更多的位置信息。
          低分辨率信息(深層的卷積層)由于感知域較大,能夠?qū)W習(xí)到更加抽象一些的特征,可以提供更多的上下文信息,即強(qiáng)語(yǔ)義信息,這有利于像素的精確分類。

          3. 上采樣(意義在于將小尺寸的高維度f(wàn)eature map恢復(fù)回去)

          上采樣(upsampling)一般包括2種方式:

          Resize,如雙線性插值直接對(duì)圖像進(jìn)行縮放(這種方法在原文中提到)
          Deconvolution(反卷積)[2],也叫Transposed Convolution(轉(zhuǎn)置卷積),可以理解為卷積的逆向操作。

          4. 醫(yī)學(xué)影像語(yǔ)義分割的幾個(gè)評(píng)估指標(biāo)[3]

          1)Jaccard(IoU)

          用于比較有限樣本集之間的相似性與差異性。Jaccard值越大,樣本相似度越高。

          關(guān)于對(duì)TP、FP、TN、FN的理解,可參考我的另一篇目標(biāo)檢測(cè)中mAP計(jì)算的博文:https://zhuanlan.zhihu.com/p/139073511

          2)Dice相似系數(shù)

          一種集合相似度度量指標(biāo),通常用于計(jì)算兩個(gè)樣本的相似度,值的范圍0~1 ,分割結(jié)果最好時(shí)值為1 ,最差時(shí)值為0 。Dice相似系數(shù)對(duì)mask的內(nèi)部填充比較敏感。

          3)Hausdorff 距離(豪斯多夫距離

          描述兩組點(diǎn)集之間相似程度的一種量度,對(duì)分割出的邊界比較敏感。

          4)F1-score

          用來(lái)衡量二分類模型精確度的一種指標(biāo),同時(shí)考慮到分類模型的準(zhǔn)確率和召回率,可看做是準(zhǔn)確率和召回率的一種加權(quán)平均。

          二、FCN網(wǎng)絡(luò)的理解

          FCN將一般的經(jīng)典的分類網(wǎng)絡(luò)模型(VGG16...)的最后一層的FC層(全連接)換成卷積,這樣可以通過(guò)二維的特征圖,后接softmax獲得每個(gè)像素點(diǎn)的分類信息,從而解決了分割問(wèn)題。

          核心思想:
          - 不含全連接層(fc)的全卷積(fully conv)網(wǎng)絡(luò)??蛇m應(yīng)任意尺寸輸入。
          - 增大數(shù)據(jù)尺寸的反卷積(deconv)層。能夠輸出精細(xì)的結(jié)果。
          - 結(jié)合不同深度層結(jié)果的跳級(jí)(skip)結(jié)構(gòu)。同時(shí)確保魯棒性和精確性。

          FCN結(jié)構(gòu)示意圖

          對(duì)于FCN-32s,直接對(duì)pool5 feature進(jìn)行32倍上采樣獲得32x upsampled feature,再對(duì)32x upsampled feature每個(gè)點(diǎn)做softmax prediction獲得32x upsampled feature prediction(即分割圖)。

          對(duì)于FCN-16s,首先對(duì)pool5 feature進(jìn)行2倍上采樣獲得2x upsampled feature,再把pool4 feature和2x upsampled feature逐點(diǎn)相加,然后對(duì)相加的feature進(jìn)行16倍上采樣,并softmax prediction,獲得16x upsampled feature prediction。

          對(duì)于FCN-8s,首先進(jìn)行pool4+2x upsampled feature逐點(diǎn)相加,然后又進(jìn)行pool3+2x upsampled逐點(diǎn)相加,即進(jìn)行更多次特征融合。

          FCN缺點(diǎn):

          結(jié)果不夠精細(xì)。進(jìn)行8倍上采樣雖然比32倍的效果好了很多,但是上采樣的結(jié)果還是比較模糊和平滑,對(duì)圖像中的細(xì)節(jié)不敏感。

          對(duì)各個(gè)像素進(jìn)行分類,沒(méi)有充分考慮像素與像素之間的關(guān)系。忽略了在通常的基于像素分類的分割方法中使用的空間規(guī)整(spatial regularization)步驟,缺乏空間一致性。

          FCN論文地址:https://arxiv.org/abs/1411.4038

          三、U-net網(wǎng)絡(luò)的理解

          Unet網(wǎng)絡(luò)結(jié)構(gòu)圖

          整個(gè)U-Net網(wǎng)絡(luò)結(jié)構(gòu)類似于一個(gè)大型的字母U,與FCN都是很小的分割網(wǎng)絡(luò),既沒(méi)有使用空洞卷積,也沒(méi)有后接CRF,結(jié)構(gòu)簡(jiǎn)單。

          1. 首先進(jìn)行Conv+Pooling下采樣;
          2. 然后反卷積進(jìn)行上采樣,crop之前的低層feature map,進(jìn)行融合;
          3. 再次上采樣。
          4. 重復(fù)這個(gè)過(guò)程,直到獲得輸出388x388x2的feature map,
          5. 最后經(jīng)過(guò)softmax獲得output segment map??傮w來(lái)說(shuō)與FCN思路非常類似。

          UNet的encoder下采樣4次,一共下采樣16倍,對(duì)稱地,其decoder也相應(yīng)上采樣4次,將encoder得到的高級(jí)語(yǔ)義特征圖恢復(fù)到原圖片的分辨率。

          它采用了與FCN不同的特征融合方式:

          1. FCN采用的是逐點(diǎn)相加,對(duì)應(yīng)tensorflow的tf.add()函數(shù)
          2. U-Net采用的是channel維度拼接融合,對(duì)應(yīng)tensorflow的tf.concat()函數(shù)

          Unet論文地址:https://arxiv.org/pdf/1505.04597.pdf

          四、Unet++網(wǎng)絡(luò)的理解 [4]

          文章對(duì)Unet改進(jìn)的點(diǎn)主要是skip connection,作者認(rèn)為skip connection 直接將unet中encoder的淺層特征與decoder的深層特征結(jié)合是不妥當(dāng)?shù)?,?huì)產(chǎn)生semantic gap。

          文中假設(shè):當(dāng)所結(jié)合的淺層特征與深層特征是semantically similar時(shí),網(wǎng)絡(luò)的優(yōu)化問(wèn)題就會(huì)更簡(jiǎn)單,因此文章對(duì)skip connection的改進(jìn)就是想bridge/reduce 這個(gè)semantic gap。

          附Unet++論文地址:https://arxiv.org/pdf/1807.10165.pdf

          代碼地址:https://github.com/MrGiovanni/UNetPlusPlus

          五、Unet+++算法的理解?[5]

          為了彌補(bǔ)UNet和UNet++的缺陷,UNet 3+中的每一個(gè)解碼器層都融合了來(lái)自編碼器中的小尺度和同尺度的特征圖,以及來(lái)自解碼器的大尺度的特征圖,這些特征圖捕獲了全尺度下的細(xì)粒度語(yǔ)義和粗粒度語(yǔ)義。

          附U-net+++論文地址:https://arxiv.org/abs/2004.08790

          六、DeepLab v3+算法簡(jiǎn)閱?[6]

          DeepLab v3+結(jié)構(gòu)圖

          Encoder部分

          Encoder就是原來(lái)的DeepLabv3,
          需要注意點(diǎn):
          1. 輸入尺寸與輸出尺寸比(output stride = 16),最后一個(gè)stage的膨脹率rate為2
          2. Atrous Spatial Pyramid Pooling module(ASPP)有四個(gè)不同的rate,額外一個(gè)全局平均池化

          Decoder部分

          先把encoder的結(jié)果上采樣4倍,然后與resnet中下采樣前的Conv2特征concat一起,再進(jìn)行3x3的卷積,最后上采樣4倍得到最終結(jié)果。
          需要注意點(diǎn):融合低層次信息前,先進(jìn)行1x1的卷積,目的是降通道(例如有512個(gè)通道,而encoder結(jié)果只有256個(gè)通道)

          DeepLab v3+論文地址:https://arxiv.org/pdf/1802.02611.pdf

          七、Unet在醫(yī)學(xué)圖像上的適用與CNN分割算法的簡(jiǎn)要總結(jié)

          1. Unet結(jié)構(gòu)特點(diǎn)
          UNet相比于FCN和Deeplab等,共進(jìn)行了4次上采樣,并在同一個(gè)stage使用了skip connection,而不是直接在高級(jí)語(yǔ)義特征上進(jìn)行監(jiān)督和loss反傳,這樣就保證了最后恢復(fù)出來(lái)的特征圖融合了更多的low-level的feature,也使得不同scale的feature得到了的融合,從而可以進(jìn)行多尺度預(yù)測(cè)和DeepSupervision。4次上采樣也使得分割圖恢復(fù)邊緣等信息更加精細(xì)。

          2. 為什么適用于醫(yī)學(xué)圖像?[7]

          1. 因?yàn)獒t(yī)學(xué)圖像邊界模糊、梯度復(fù)雜,需要較多的高分辨率信息。高分辨率用于精準(zhǔn)分割。
          2. 人體內(nèi)部結(jié)構(gòu)相對(duì)固定,分割目標(biāo)在人體圖像中的分布很具有規(guī)律,語(yǔ)義簡(jiǎn)單明確,低分辨率信息能夠提供這一信息,用于目標(biāo)物體的識(shí)別。
          UNet結(jié)合了低分辨率信息(提供物體類別識(shí)別依據(jù))和高分辨率信息(提供精準(zhǔn)分割定位依據(jù)),完美適用于醫(yī)學(xué)圖像分割。

          3. 分割算法改進(jìn)總結(jié):

          1. 下采樣+上采樣:Convlution + Deconvlution/Resize
          2. 多尺度特征融合:特征逐點(diǎn)相加/特征channel維度拼接
          3. 獲得像素級(jí)別的segement map:對(duì)每一個(gè)像素點(diǎn)進(jìn)行判斷類別

          參考

          1. 實(shí)例分割理解?https://blog.csdn.net/tony2278/article/details/90028747?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-4.nonecase&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-4.nonecase
          2. 可以參考一下卷積運(yùn)算的幾種操作?https://blog.csdn.net/attitude_yu/article/details/84697181
          3. https://zhuanlan.zhihu.com/p/117435908?from_voters_page=true
          4. 周縱葦?shù)难辛?xí)Unet?https://zhuanlan.zhihu.com/p/44958351
          5. UNet3+(UNet+++)論文解讀?https://zhuanlan.zhihu.com/p/136164721
          6. DeepLab系列理解?https://www.jianshu.com/p/755b001bfe38
          7. Unet神經(jīng)網(wǎng)絡(luò)為什么會(huì)在醫(yī)學(xué)圖像分割表現(xiàn)好?https://www.zhihu.com/question/269914775

          往期精彩:

          【原創(chuàng)首發(fā)】機(jī)器學(xué)習(xí)公式推導(dǎo)與代碼實(shí)現(xiàn)30講.pdf

          【原創(chuàng)首發(fā)】深度學(xué)習(xí)語(yǔ)義分割理論與實(shí)戰(zhàn)指南.pdf


          喜歡您就點(diǎn)個(gè)在看!

          瀏覽 100
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  第九色天堂 | 婷婷五月天啪啪 | 国产肉体XXX137大胆 | 人妻三级视频 | 啪啪啪在线观看网站 |