<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          快速回顧:U-Net Family方法匯總

          共 3250字,需瀏覽 7分鐘

           ·

          2020-12-27 06:39

          ↑ 點擊藍(lán)字?關(guān)注極市平臺

          作者丨yanwan
          來源丨AI約讀社
          編輯丨極市平臺

          極市導(dǎo)讀

          ?

          Unet作為FCN 的一種變體,因為其結(jié)構(gòu)能夠結(jié)合底層和高層的信息,成為大多做醫(yī)療影像語義分割任務(wù)的基礎(chǔ)。本文是關(guān)于U-Net的體系結(jié)構(gòu)一篇匯總,分別介紹了U-Net,Attention U-Net,UNet++的概念及詳細(xì)分類。>加入極市CV技術(shù)交流群,走在計算機視覺的最前沿

          1 Image Segmentation

          Image Classification: 幫助我們對圖像中包含的內(nèi)容進(jìn)行分類。目標(biāo)是通過預(yù)測是或否來回答“此圖像中是否有貓?”。

          Object Detectio: 指定對象在圖像中的位置。目的是通過在感興趣的對象周圍繪制邊框來識別“貓在此圖像中的什么位置?”。

          Image Segmentation: 為圖像中的每個對象創(chuàng)建一個像素級掩碼。目的是通過對每個像素進(jìn)行分類來識別圖像中不同對象的位置和形狀。

          2 Metrics

          我們需要一組度量標(biāo)準(zhǔn)來比較不同的模型,通常有BCE,Dice系數(shù)和IoU。

          Binary cross-entropy: 二分類的交叉熵?fù)p失;

          Dice coefficient: 是預(yù)測值與之間之間的重疊的通用度量標(biāo)準(zhǔn)。計算公式為2 *重疊面積(預(yù)測值和真實值之間)除以總面積(預(yù)測的和真實的基礎(chǔ)相加)。此指標(biāo)的范圍是0到1,其中1表示完美和完全重疊。

          Intersection over Union: 一個簡單的度量標(biāo)準(zhǔn),重疊區(qū)域(在預(yù)測的和真實值之間)并除以并集的區(qū)域(在預(yù)測值和真實值之間)。與Dice系數(shù)相似,此度量范圍為0到1,其中0表示無重疊,而1表示預(yù)測的和地面真實情況之間的完全重疊。

          3 U-Net

          U-Net發(fā)表在2015年MICCAI上。盡管U-Net也可用于自然圖像的分割,但它在許多生物醫(yī)學(xué)圖像的圖像分割任務(wù)中都得到不錯得效果。

          Requires fewer training samples
          深度學(xué)習(xí)模型的成功訓(xùn)練需要成千上萬的帶注釋的訓(xùn)練樣本,但是獲取帶注釋的醫(yī)學(xué)圖像是巨大的。U-Net可以使用更少的訓(xùn)練樣本進(jìn)行端到端訓(xùn)練。

          Precise segmentation
          精確的分割掩碼在自然圖像中可能并不重要,但是醫(yī)學(xué)圖像中的邊緣分割錯誤會導(dǎo)致結(jié)果在臨床環(huán)境中不可靠。盡管培訓(xùn)師樣本較少,但U-Net仍可以產(chǎn)生更精確的細(xì)分。

          Architecture

          U-Net具有優(yōu)雅的結(jié)構(gòu),網(wǎng)絡(luò)是對稱得,并形成U形的結(jié)構(gòu)。

          Contraction path (downsampling)

          看起來像典型的CNN架構(gòu),通過連續(xù)堆疊兩個3x3卷積(藍(lán)色箭頭),然后進(jìn)行2x2最大池化(紅色箭頭)進(jìn)行下采樣。在每個下采樣步驟,通道數(shù)量都會加倍。

          Expansion path (up-convolution)

          一個用于上采樣的2x2向上卷積(綠色箭頭)和兩個3x3向上卷積(藍(lán)色箭頭)。在每個上采樣步驟中,通道數(shù)減半。

          在每次2x2向上卷積之后,由于每次卷積中邊界像素的丟失,一系列特征映射從Contracting path(灰色箭頭)到有相應(yīng)的圖層,以提供從contraction path 到 expansion path 的定位信息。

          Final layer

          1x1卷積以將要素映射映射到所需的類數(shù)。

          4 Attention U-Net

          論文:Attention Gates for Image Analysis

          代碼:ozan-oktay/Attention-Gated-Networks(https://github.com/ozan-oktay/Attention-Gated-Networks

          盡管U-Net具有良好的表示能力,但它依賴于多級級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)。這些級聯(lián)框架提取感興趣的區(qū)域并做出密集的預(yù)測。這種方法在重復(fù)提取低層特征時會導(dǎo)致計算資源的過度和冗余使用。

          What is new in Attention U-Net?

          UNet++在原來的U-Net基礎(chǔ)上增加:Attention gates

          Attention gates的結(jié)構(gòu)如上圖頂部所示。
          首先,輸入分別經(jīng)過2個1×1×1卷積,然后將其相加再使用ReLU。
          其次,再次執(zhí)行1×1×1轉(zhuǎn)換,但是這次以Sigmoid作為激活函數(shù)。
          然后,它會經(jīng)過重采樣器(實際上是三線性插值),以使特征圖的大小與要乘元素的大小相同。
          最后,使用較低級別的上采樣特征圖和原始特征進(jìn)行Element-wise。

          5 UNet++

          UNet++通過在編碼器和解碼器之間加入密集的塊和卷積層來提高分割精度。

          What is new in UNet++?

          UNet++在原來的U-Net基礎(chǔ)上增加了3項功能:

          • redesigned skip pathways(以綠色顯示)
          • dense skip connections(以藍(lán)色顯示)
          • deep supervision(紅色顯示)

          Redesigned skip pathways

          在UNet++中,添加了Redesigned skip pathways(以綠色顯示),從而導(dǎo)致語義上不同的特征映射的融合,以融合編碼器和解碼器子路徑映射之間的語義差距。

          Redesigned skip pathways的所有卷積都使用3×3大小的核。

          Dense skip connections

          UNet++中的Dense skip connections(藍(lán)色顯示)在編碼器和解碼器之間實現(xiàn)了跳躍連接。這些稠密塊的設(shè)計靈感來自DenseNet,目的是提高分割精度和改善梯度流。

          Deep supervision

          在UNet ++中,添加了深度監(jiān)督(以紅色顯示),以便可以修剪模型以調(diào)整模型的復(fù)雜性,從而在速度(推理時間)和性能之間取得平衡。對于精確模式,平均所有細(xì)分分支的輸出。對于快速模式,從分割分支之一中選擇最終的輸出。

          Conclusion

          U-Net體系結(jié)構(gòu)非常適合生物醫(yī)學(xué)圖像分割,盡管僅使用50張圖像進(jìn)行訓(xùn)練,但實現(xiàn)了非常好的性能,并且訓(xùn)練時間非常合理。

          參考:

          https://sh-tsang.medium.com/review-unet-a-nested-u-net-architecture-biomedical-image-segmentation-57be56859b20
          https://towardsdatascience.com/biomedical-image-segmentation-u-net-a787741837fa
          https://towardsdatascience.com/biomedical-image-segmentation-unet-991d075a3a4b

          http://weixin.qq.com/r/-S50bE3EahAVrQkP93vv?


          推薦閱讀



          極市&英特爾 OpenVINO?中級認(rèn)證,代碼均已內(nèi)置,助力快速完成~


            添加極市小助手微信(ID : cvmart2),備注:姓名-學(xué)校/公司-研究方向-城市(如:小極-北大-目標(biāo)檢測-深圳),即可申請加入極市目標(biāo)檢測/圖像分割/工業(yè)檢測/人臉/醫(yī)學(xué)影像/3D/SLAM/自動駕駛/超分辨率/姿態(tài)估計/ReID/GAN/圖像增強/OCR/視頻理解等技術(shù)交流群:月大咖直播分享、真實項目需求對接、求職內(nèi)推、算法競賽、干貨資訊匯總、與?10000+來自港科大、北大、清華、中科院、CMU、騰訊、百度等名校名企視覺開發(fā)者互動交流~

            △長按添加極市小助手

            △長按關(guān)注極市平臺,獲取最新CV干貨

            覺得有用麻煩給個在看啦~??
            瀏覽 94
            點贊
            評論
            收藏
            分享

            手機掃一掃分享

            分享
            舉報
            評論
            圖片
            表情
            推薦
            點贊
            評論
            收藏
            分享

            手機掃一掃分享

            分享
            舉報
            <kbd id="afajh"><form id="afajh"></form></kbd>
            <strong id="afajh"><dl id="afajh"></dl></strong>
              <del id="afajh"><form id="afajh"></form></del>
                  1. <th id="afajh"><progress id="afajh"></progress></th>
                    <b id="afajh"><abbr id="afajh"></abbr></b>
                    <th id="afajh"><progress id="afajh"></progress></th>
                    肏屄网站在线观看 | 中国黄色一级操逼片 | 天天艹天天日天天干 | 国产精品老熟女视频一区二区 | 亚洲免费婷婷 |