<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          L-SNET:從區(qū)域定位到尺度不變的醫(yī)學圖像分割

          共 2496字,需瀏覽 5分鐘

           ·

          2021-02-21 10:27

          點擊上方小白學視覺”,選擇加"星標"或“置頂

          重磅干貨,第一時間送達


          小白導讀

          論文是學術(shù)研究的精華和未來發(fā)展的明燈。小白決心每天為大家?guī)斫?jīng)典或者最新論文的解讀和分享,旨在幫助各位讀者快速了解論文內(nèi)容。個人能力有限,理解難免出現(xiàn)偏差,建議對文章內(nèi)容感興趣的讀者,一定要下載原文,了解具體內(nèi)容。


          摘要


          在醫(yī)學圖像分割中,廣泛采用粗到細模型和級聯(lián)分割體系結(jié)構(gòu)來解決大尺度變化的問題。然而,這些方法有兩個主要的局限性:第一階段分割成為性能瓶頸;由于缺乏整體可微性,使得兩個階段的訓練過程不同步、不一致。本文提出了一種可微的兩階段網(wǎng)絡(luò)結(jié)構(gòu)來解決這些問題。在第一階段,定位網(wǎng)絡(luò)(L-Net)以檢測的方式定位感興趣區(qū)域(roi);第二階段,用分割網(wǎng)絡(luò)(S-Net)對重新校準的roi進行精細分割;L-Net和S-Net之間的RoI重新校準模塊,消除不一致性。在公共數(shù)據(jù)集上的實驗結(jié)果表明,作者的方法優(yōu)于最先進的粗到細模型,且計算開銷可以忽略不計。


          論文創(chuàng)新點


          本文提出了一種創(chuàng)新的兩階段網(wǎng)絡(luò)結(jié)構(gòu)——L-SNet,它利用L-Net解決第一個定位問題,利用S-Net進行精細分割。第一階段L-Net預測并定位所有roi;在第二階段,S-Net進行更精細的分割;RoI再校準模塊重新校準RoI,連接兩個階段,使L-SNet完全可微。作者的主要工作可以總結(jié)為:

          • 作者提出了一種創(chuàng)新的兩階段網(wǎng)絡(luò)結(jié)構(gòu)來解決大規(guī)模變化,其中第一階段進行有效的RoI檢測,而不是廣泛采用的粗分割。

          • 作者設(shè)計了一個可解釋的RoI重校準模塊來連接L-Net和S-Net之間的梯度傳播,使L-SNet完全可微。

          • 作者提出的L-SNet以較少的計算開銷持續(xù)提高了從粗到細模型在胰腺- ct數(shù)據(jù)集上的性能。


          框架結(jié)構(gòu)


          概述作者提出的L-SNet。給定一個CT圖像切片,L-Net對RoI進行定位,RoI再校準模塊RR將定位的RoI重新校準到一個固定的尺度,用S-Net進行更精細的分割。后期處理是將精細分割的掩?;謴偷狡湓谳斎雸D像上的原始形狀和位置。作者靈活的架構(gòu)對L-Net和S-Net的形式幾乎沒有限制,因為它們可以是任何CNN。

          L-Net管道。特征映射F’通過編碼器-解碼器結(jié)構(gòu)提取。兩個分支分別對F’進行關(guān)鍵點預測和邊界框回歸。


          實驗結(jié)果


          廣泛使用的粗細化方法與作者的L-SNet的主要區(qū)別是,在將roi發(fā)送到第二階段進行精細分割之前。


          結(jié)論


          本文在分析了以往醫(yī)學圖像分割研究成果的基礎(chǔ)上,提出了一種新的醫(yī)學圖像分割結(jié)構(gòu)——L-SNet。在L-SNet中,L-Net和SNet共同承擔分割任務(wù):L-Net為本地化而設(shè)計,S-Net為分割而設(shè)計。RR模塊連接L-Net和S-Net,建立整體的可微性。實驗表明,L-SNet中的每一個模塊,包括L-Net、S-Net和RR模塊,都提高了最終的DSC。最后,使用L-SNet中的所有模塊,作者的性能始終優(yōu)于從粗到細的方法。


          論文鏈接:https://arxiv.org/pdf/2102.05971.pdf


          每日堅持論文分享不易,如果喜歡我們的內(nèi)容,希望可以推薦或者轉(zhuǎn)發(fā)給周圍的同學。


          - END -


          下載1:OpenCV-Contrib擴展模塊中文版教程
          在「小白學視覺」公眾號后臺回復:擴展模塊中文教程,即可下載全網(wǎng)第一份OpenCV擴展模塊教程中文版,涵蓋擴展模塊安裝、SFM算法、立體視覺、目標跟蹤、生物視覺、超分辨率處理等二十多章內(nèi)容。

          下載2:Python視覺實戰(zhàn)項目52講
          小白學視覺公眾號后臺回復:Python視覺實戰(zhàn)項目,即可下載包括圖像分割、口罩檢測、車道線檢測、車輛計數(shù)、添加眼線、車牌識別、字符識別、情緒檢測、文本內(nèi)容提取、面部識別等31個視覺實戰(zhàn)項目,助力快速學校計算機視覺。

          下載3:OpenCV實戰(zhàn)項目20講
          小白學視覺公眾號后臺回復:OpenCV實戰(zhàn)項目20講,即可下載含有20個基于OpenCV實現(xiàn)20個實戰(zhàn)項目,實現(xiàn)OpenCV學習進階。

          交流群


          歡迎加入公眾號讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器、自動駕駛、計算攝影、檢測、分割、識別、醫(yī)學影像、GAN、算法競賽等微信群(以后會逐漸細分),請掃描下面微信號加群,備注:”昵稱+學校/公司+研究方向“,例如:”張三 + 上海交大 + 視覺SLAM“。請按照格式備注,否則不予通過。添加成功后會根據(jù)研究方向邀請進入相關(guān)微信群。請勿在群內(nèi)發(fā)送廣告,否則會請出群,謝謝理解~


          瀏覽 73
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  麻豆精品秘 国产 | 成人不卡在线 | 国产精品人妻熟女毛片av | 男人的天堂免费网站 | 日韩黄色电影在线免费观看 |