<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          如何量化醫(yī)學(xué)圖像分割中的置信度?

          共 2594字,需瀏覽 6分鐘

           ·

          2021-07-14 17:10

          點(diǎn)擊上方小白學(xué)視覺”,選擇加"星標(biāo)"或“置頂

          重磅干貨,第一時(shí)間送達(dá)

          本文轉(zhuǎn)自:計(jì)算機(jī)視覺life

          導(dǎo)讀

          利用變分推斷進(jìn)行分割置信度的預(yù)測(cè)。


          在過去的十年里,深度學(xué)習(xí)在一系列的應(yīng)用中取得了巨大的成功。然而,為了驗(yàn)證和可解釋性,我們不僅需要模型做出的預(yù)測(cè),還需要知道它在做出預(yù)測(cè)時(shí)的置信度。這對(duì)于讓醫(yī)學(xué)影像學(xué)的臨床醫(yī)生接受它是非常重要的。在這篇博客中,我們展示了我們?cè)陧f洛爾理工學(xué)院進(jìn)行的研究。我們使用了一個(gè)基于變分推理技術(shù)的編碼解碼架構(gòu)來分割腦腫瘤圖像。我們比較了U-Net、V-Net和FCN等不同的主干架構(gòu)作為編碼器的條件分布采樣數(shù)據(jù)。我們使用Dice相似系數(shù)(DSC)和IOU作為評(píng)價(jià)指標(biāo)來評(píng)價(jià)我們?cè)诠_數(shù)據(jù)集BRATS上的工作。

          醫(yī)學(xué)圖像分割


          在目前的文獻(xiàn)中主要利用兩種技術(shù)成功地解決了醫(yī)學(xué)圖像的分割問題,一種是利用全卷積網(wǎng)絡(luò)(FCN),另一種是基于U-Net的技術(shù)。FCN體系結(jié)構(gòu)的主要特點(diǎn)是在最后沒有使用已成功用于圖像分類問題的全連接層。另一方面,U-Net使用一種編碼器-解碼器架構(gòu),在編碼器中有池化層,在解碼器中有上采樣層。

          貝葉斯神經(jīng)網(wǎng)絡(luò)


          這是一種可擴(kuò)展的避免神經(jīng)網(wǎng)絡(luò)過擬合的方法,同時(shí)也給了我們一個(gè)不確定性的度量。神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)給定的數(shù)據(jù)集的后驗(yàn)分布的權(quán)重,而不是基于點(diǎn)的估計(jì),如下面的公式所示。

          預(yù)測(cè)分布可以通過逼近積分來計(jì)算,如下式所示。

          變分推斷


          變分推斷通過最大化證據(jù)下界來尋找分布的參數(shù)。ELBO由前后分布的Kullback-Leibler (KL)散度和負(fù)對(duì)數(shù)似然(NLL)兩項(xiàng)之和構(gòu)成。需要最小化的KL散度項(xiàng)如下式所示。

          KL散度定義如下式。

          由于上述方程中的積分在本質(zhì)上是難以處理的,它可以寫成另一種形式。該方程可轉(zhuǎn)化為優(yōu)化問題,如下式所示。

          隨機(jī)不確定性和認(rèn)知不確定性


          有兩種類型的不確定性 —— 隨機(jī)不確定性和認(rèn)知不確定性,其中方差是兩者的總和。對(duì)于最終的預(yù)測(cè),單個(gè)的均值和方差可以估計(jì),如下兩個(gè)方程所示。


          方差中的第一項(xiàng)表示隨機(jī)不確定性,而第二項(xiàng)表示認(rèn)知不確定性。

          網(wǎng)絡(luò)結(jié)構(gòu)

          先驗(yàn)分布有助于整合網(wǎng)絡(luò)上的權(quán)值學(xué)習(xí)。我們的模型使用了與VAEs中使用的類似的編碼器解碼器體系結(jié)構(gòu),編碼器的輸入來自預(yù)先訓(xùn)練好的圖像分割結(jié)構(gòu)。輸入到編碼器只需要表示置信度的條件分布的標(biāo)準(zhǔn)差向量的均值,以此來正確預(yù)測(cè)像素點(diǎn)。參數(shù)經(jīng)過編碼器后,被轉(zhuǎn)換為一個(gè)潛在表示,再采樣的平均值和標(biāo)準(zhǔn)偏差向量。解碼器隨后將其恢復(fù)到原始分布。采用傳統(tǒng)的反向傳播算法進(jìn)行梯度下降模型的訓(xùn)練。本工作中使用的模型架構(gòu)如圖1所示:

          圖1:模型結(jié)構(gòu)
          算法


          下面是基于隨機(jī)梯度下降的訓(xùn)練網(wǎng)絡(luò)的算法。

          數(shù)據(jù)集


          為了評(píng)估我們的網(wǎng)絡(luò)性能,我們使用BRATS18腦瘤分割數(shù)據(jù)集。它包含175名惡性膠質(zhì)瘤和低級(jí)別惡性膠質(zhì)瘤患者的MRI掃描。圖像分辨率為240×240×155像素。ground truth標(biāo)簽是由神經(jīng)放射學(xué)專家創(chuàng)建的。數(shù)據(jù)集的一個(gè)示例如圖2所示。

          圖2:MRI切片的例子以及分割的ground truth
          評(píng)估指標(biāo)

          評(píng)價(jià)指標(biāo)為Dice相似系數(shù)(DSC),也稱F1-score和IoU。對(duì)應(yīng)的方程如下所示。


          損失函數(shù)


          采用二元交叉熵和dice損失相結(jié)合的方法對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。第一部分二元交叉熵是分類問題中常用的損失函數(shù),如下式所示:

          二元交叉熵?fù)p失的問題在于它沒有考慮到類的不平衡,因?yàn)楸尘笆钦贾鲗?dǎo)地位的類。dice損失解決了這個(gè)問題,可以寫成如下公式。

          這兩個(gè)損失項(xiàng)被合并在一個(gè)項(xiàng)中,并給予dice損失項(xiàng)更多的權(quán)重,因?yàn)樗芨玫靥幚眍悇e不平衡問題。這是用下面的公式定義的。

          結(jié)果

          分割所涉及的不確定性如圖3所示。深的顏色表示更自信,而淺的顏色表示模型在這些區(qū)域不太自信。

          圖3:與ground truth分割相比,測(cè)試樣本上的模型預(yù)測(cè)示例。第一列:輸入圖像,第二列:真值分割,第三列:預(yù)測(cè)分割,第四列:隨機(jī)不確定性,第五列:認(rèn)知不確定性

          總結(jié)


          在這個(gè)博客中,我們提出了一種在醫(yī)學(xué)圖像分割中量化不確定性的方法。我們的模型基于一個(gè)類似于VAEs所使用的編碼器解碼器框架。網(wǎng)絡(luò)的權(quán)值代表分布而不是點(diǎn)估計(jì),從而在進(jìn)行預(yù)測(cè)的同時(shí)給出了一種原則性的測(cè)量不確定性的方法。編碼器的輸入來自于預(yù)訓(xùn)練的骨干架構(gòu),如U-Net, V-Net, FCN,這些架構(gòu)都是從條件分布中采樣的,代表了像素被正確標(biāo)記的置信度。我們?cè)诠_數(shù)據(jù)集BRATS上評(píng)估我們的結(jié)果,使用DSC和IOU指標(biāo),我們的網(wǎng)絡(luò)優(yōu)于以前的SOTA的結(jié)果。

          英文原文:https://towardsdatascience.com/biomedical-image-segmentation-via-uncertainty-quantification-84b1eba8650


          下載1:OpenCV-Contrib擴(kuò)展模塊中文版教程
          在「小白學(xué)視覺」公眾號(hào)后臺(tái)回復(fù):擴(kuò)展模塊中文教程,即可下載全網(wǎng)第一份OpenCV擴(kuò)展模塊教程中文版,涵蓋擴(kuò)展模塊安裝、SFM算法、立體視覺、目標(biāo)跟蹤、生物視覺、超分辨率處理等二十多章內(nèi)容。

          下載2:Python視覺實(shí)戰(zhàn)項(xiàng)目52講
          小白學(xué)視覺公眾號(hào)后臺(tái)回復(fù):Python視覺實(shí)戰(zhàn)項(xiàng)目,即可下載包括圖像分割、口罩檢測(cè)、車道線檢測(cè)、車輛計(jì)數(shù)、添加眼線、車牌識(shí)別、字符識(shí)別、情緒檢測(cè)、文本內(nèi)容提取、面部識(shí)別等31個(gè)視覺實(shí)戰(zhàn)項(xiàng)目,助力快速學(xué)校計(jì)算機(jī)視覺。

          下載3:OpenCV實(shí)戰(zhàn)項(xiàng)目20講
          小白學(xué)視覺公眾號(hào)后臺(tái)回復(fù):OpenCV實(shí)戰(zhàn)項(xiàng)目20講,即可下載含有20個(gè)基于OpenCV實(shí)現(xiàn)20個(gè)實(shí)戰(zhàn)項(xiàng)目,實(shí)現(xiàn)OpenCV學(xué)習(xí)進(jìn)階。

          交流群


          歡迎加入公眾號(hào)讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器、自動(dòng)駕駛、計(jì)算攝影、檢測(cè)、分割、識(shí)別、醫(yī)學(xué)影像、GAN算法競(jìng)賽等微信群(以后會(huì)逐漸細(xì)分),請(qǐng)掃描下面微信號(hào)加群,備注:”昵稱+學(xué)校/公司+研究方向“,例如:”張三 + 上海交大 + 視覺SLAM“。請(qǐng)按照格式備注,否則不予通過。添加成功后會(huì)根據(jù)研究方向邀請(qǐng)進(jìn)入相關(guān)微信群。請(qǐng)勿在群內(nèi)發(fā)送廣告,否則會(huì)請(qǐng)出群,謝謝理解~


          瀏覽 89
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  国产一级a毛一级a看免费视频野外 | 日韩成人在线电影 | 亚洲性无码视频 | 中文字幕日韩在线视频 | 夫妻自拍在线观看 |