<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          論文推薦:基于GE-MRI的多任務學習

          共 1955字,需瀏覽 4分鐘

           ·

          2022-12-17 21:37

          來源Deephub Imba
          本文約1100字,建議閱讀6分鐘
          本文提出了一種基于Deep U-Net的多任務學習框架,用于GE-MRI左心房分割,該框架同時執(zhí)行心房分割和消融前后分類。

          醫(yī)學圖像分析,多任務學習,圖像分類,圖像分割,U-Net,后處理

          該論文是18年發(fā)布的,提出了一種基于Deep U-Net的多任務學習框架,用于GE-MRI左心房分割,該框架同時執(zhí)行心房分割和消融前后分類。雖然論文已經(jīng)很老了,但是改論文提出的多任務和后處理方法到現(xiàn)在還是可以參考的。

          多任務U-Net



          圖像分割

          多任務深度U-Net是在二維U-Net基礎上發(fā)展而來的。數(shù)據(jù)集的圖像在x-y平面上的最大尺寸為640 × 640,通過增加池化層來增加U-Net的接收域。它由5個下采樣塊和5個上采樣塊組成,使用BN和ReLU。通過聚合從下采樣路徑和上采樣路徑學到的不同尺度的粗和細特征,網(wǎng)絡應比沒有聚合操作的網(wǎng)絡獲得更好的分割性能。 

          分類

          分類任務是利用從下采樣路徑學習到的圖像特征來執(zhí)行。通過提取第4個池化層之后的特征,從不同大小和尺度的輸入圖像中學習到固定長度的特征向量,應用了SPPNet中的空間金字塔技術,然后通過2個全連接的層處理向量,使用softmax計算每個圖像的類概率(消融前/消融后)。在FC層上使用0.5的Dropout。

          損失函數(shù)

          多任務網(wǎng)絡的損失函數(shù)L:


          式中LS為分割損失,LC為分類損失,λ=1。對于分割部分,采用了像素級交叉熵損失。

          分類部分采用sigmoid交叉熵。分類損失作為正則化的作用,使網(wǎng)絡能夠?qū)W習在兩個任務中都能很好概括的高級表示。

          后處理

          在推理過程中,將從三維圖像中提取的軸向切片逐片輸入網(wǎng)絡,通過逐片拼接這些分割結果,每個患者的粗略3D掩膜就產(chǎn)生了。為了細化這些掩模的邊界進行了三維形態(tài)擴張和侵蝕,每個體積保留了最大的連接分量。

          數(shù)據(jù)



          數(shù)據(jù)集

          論文使用2018年心房分割挑戰(zhàn)數(shù)據(jù)集,包含100個3D的ge - mri圖像的訓練集,以及相應的LA手動分割掩膜和消融前/后標簽,用于訓練和驗證。還有另外一組54張沒有標簽的圖片供測試。對于模型訓練和評價,將80:20訓練集隨機分割。數(shù)據(jù)集中有兩種大小的圖像:576×576和640×640。如上圖所示,在圖像大小和圖像對比度上有很大的差異。

          預處理和數(shù)據(jù)增廣

          圖像的強度歸一化為零均值和單位方差。隨機水平/垂直翻轉(zhuǎn),概率為 50%。范圍從 -10 到 +10 度進行隨機旋轉(zhuǎn)。在原始圖像大小的 10% 范圍內(nèi)沿 X 和 Y 軸隨機移動。縮放系數(shù)介于 0.7 和 1.3 之間。隨機伽馬校正作為對比度增強的一種方式:


          其中F(x, y)是圖像中每個像素的原始值,G(x, y)是每個像素的變換值。對于每個圖像,γ從(0.8,2.0)的范圍內(nèi)隨機化。在對比度增強的情況下,該網(wǎng)絡不需要圖像對比度增強作為預處理。


          與AGC和CLAHE等其他預處理圖像對比度增強相比,gamma增強代具有更高的Dice得分。

          采用多尺度裁剪來增加數(shù)據(jù)的多樣性,使網(wǎng)絡能夠分析不同背景下的圖像。裁剪尺寸包括256×256, 384×384, 480×480, 512×512, 576×576, 640×640。首先用裁剪圖像訓練網(wǎng)絡,然后逐漸增加圖像的大小。網(wǎng)絡學會了從簡單的場景到困難的場景進行分割。

          結果


          定量結果

          對于不同的網(wǎng)絡和方法,基于不同測量值的分割精度結果如下:


          隨著網(wǎng)絡深度的增加,分割性能得到了顯著提高,尤其是在二尖瓣平面上。通過多任務Deep U-Net和進行后期處理,得到的Dice分數(shù)為0.901。


          這個多任務U-Net算法比其他兩種算法具有更強的魯棒性,通過與分割和相關的消融前后分類共享特征,網(wǎng)絡被迫學習更好的表示,以獲得更好的分割結果。


          這是驗證集中的三個樣本的三維可視化。藍色對象是真值,綠色對象是預測分割
          該模型在不同主題的三維分割結果與真值之間具有較高的重疊率。然而,在肺靜脈周圍可以觀察到一種顯著的失效模式。一個可能的原因可能是肺靜脈的數(shù)量和長度因人而異,這使得網(wǎng)絡很難從有限的病例中學習。

          訓練時間

          在一臺Nvidia Titan Xp GPU上,總的處理過程平均大約需要10秒。

          Atrial Segmentation Challenge 2018

          論文作者使用了一種稱為Boostrap aggreging (Bagging)的集成方法。在同一模型訓練5次,每次隨機子集,然后平均類概率。在主辦方給出的54個測試用例中,DICE平均得分從0.9197提高到0.9206。

          論文地址:
          [2018 STACOM] [Multi-Task Deep U-Net] :https://arxiv.org/abs/1810.13205
          作者:Sik-Ho Tsang
          編輯:黃繼彥


          瀏覽 14
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  免费看日逼视频情侣 | AV免费网站大全 | 影音先锋亚洲资源 | 黄色免费小视频在线观看 | 五月激情逼 |