<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          優(yōu)于ImageNet的醫(yī)學(xué)圖像預(yù)訓(xùn)練模型,騰訊開源70萬量級X光預(yù)訓(xùn)練模型 |MICCAI 2020

          共 3747字,需瀏覽 8分鐘

           ·

          2020-10-29 02:39

          ↑ 點擊藍(lán)字?關(guān)注極市平臺

          作者丨DL Engine
          來源丨Deep Learning Engine
          編輯丨極市平臺

          極市導(dǎo)讀

          ?

          預(yù)訓(xùn)練模型能夠加速任務(wù)模型收斂速度和提升模型性能。自然場景圖像有ImageNet預(yù)訓(xùn)練模型,但此類數(shù)據(jù)和醫(yī)學(xué)圖像差異較大。作者提出了一種新型的預(yù)訓(xùn)練方法(C2L),利用該方法在70萬X光無標(biāo)注數(shù)據(jù)上進行訓(xùn)練,并取得了優(yōu)于ImageNet預(yù)訓(xùn)練模型的效果。?>>加入極市CV技術(shù)交流群,走在計算機視覺的最前沿

          論文地址:https://arxiv.org/abs/2007.07423

          代碼地址:https://github.com/funnyzhou/C2L_MICCAI2020



          摘要?Abstract

          本期分享一篇MICCAI2020的一篇關(guān)于醫(yī)學(xué)圖像的預(yù)訓(xùn)練模型論文《Comparing to Learn: Surpassing ImageNet Pretraining on Radiographs by Comparing Image Representations》。在深度學(xué)習(xí)領(lǐng)域,預(yù)訓(xùn)練模型有著舉足輕重的地位,特別是以自然場景數(shù)據(jù)為代表的ImageNet預(yù)訓(xùn)練模型是大多任務(wù)模型初始化參數(shù)的不二選擇。對于醫(yī)學(xué)圖像來說,其和自然場景數(shù)據(jù)差異大。醫(yī)學(xué)任務(wù)模型用ImageNet預(yù)訓(xùn)練模型就不太合適。因此,作者提出了一種新型的預(yù)訓(xùn)練方法(C2L),利用該方法在70萬X光無標(biāo)注數(shù)據(jù)上進行訓(xùn)練。利用預(yù)訓(xùn)練模型在不同的任務(wù)和數(shù)據(jù)集上均取得了優(yōu)于ImageNet預(yù)訓(xùn)練模型更好的SOTA結(jié)果。


          01?Introduction

          ImageNet預(yù)訓(xùn)練模型通過遷移學(xué)習(xí)應(yīng)用到2D醫(yī)學(xué)圖像分析中已被證實是有效的。大量的實驗證明,預(yù)訓(xùn)練模型與從頭開始訓(xùn)練相比,模型能夠快速收斂并且能獲得更好的準(zhǔn)確率。這樣的結(jié)果主要歸因于兩個因素:高效的深度神經(jīng)網(wǎng)絡(luò)算法以及從大量自然場景圖像中學(xué)得的通用特征表達。但顯而易見的問題是醫(yī)學(xué)圖像和自然場景圖像是具有顯著差異的。那么能否通過某種方法訓(xùn)練一個基于醫(yī)學(xué)數(shù)據(jù)的預(yù)訓(xùn)練模型

          眾所周知,醫(yī)學(xué)數(shù)據(jù)需要該領(lǐng)域?qū)I(yè)醫(yī)師進行標(biāo)注。這類高質(zhì)量,多數(shù)量的標(biāo)注數(shù)據(jù)能夠直接提升模型的性能。但醫(yī)學(xué)數(shù)據(jù)往往因為涉及病人隱私等原因而受到管控和限制,無法獲取到大量的帶醫(yī)生診斷結(jié)論的數(shù)據(jù)。那么,開發(fā)一種不帶標(biāo)注數(shù)據(jù)的方法在醫(yī)學(xué)領(lǐng)域就顯得尤為重要。一些利用未標(biāo)注數(shù)據(jù)進行自監(jiān)督學(xué)習(xí)的模型也取得了不錯的性能表現(xiàn),但還無法超過在ImageNet上進行預(yù)訓(xùn)練的模型。

          通過上述分析,作者提出了一種全新的自監(jiān)督預(yù)訓(xùn)練方法C2L(Compare to Learn)。此方法旨在利用大量的未標(biāo)注的X光圖像預(yù)訓(xùn)練一個2D深度學(xué)習(xí)模型,使得模型能夠在有監(jiān)督信息的條件下,通過對比不同圖像特征的差異,提取通用的圖像表達。與利用圖像修復(fù)等代理任務(wù)方法不同的是,作者提出的方法是一種自定義特征表達相似性度量。文中重點關(guān)注圖像特征級別的對比,通過混合每個批次的圖像和特征,提出了結(jié)構(gòu)同質(zhì)性和異質(zhì)性的數(shù)據(jù)配對方法。設(shè)計了一種基于動量的“老師-學(xué)生”(teacher-student architecture)對比學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)。“老師”網(wǎng)絡(luò)和“學(xué)生”網(wǎng)絡(luò)共享同一個網(wǎng)絡(luò)結(jié)構(gòu),但是更新方式不同,其偽代碼如下。

          02?proposed?Method

          Batch Mixup and Feature Mixup:每一個批次的輸入圖像數(shù)據(jù),首先進行隨機數(shù)據(jù)增強(如隨機裁剪,旋轉(zhuǎn)等),生成兩組數(shù)據(jù)。與傳統(tǒng)的圖像級混合方法不同,作者提出了一種基于批次級的混合方法。假設(shè)每個批次包含Z張圖像,其中。隨機打亂,構(gòu)造配對數(shù)據(jù)。

          其中,~ Beta(1.0,1.0)分布。通過實驗發(fā)現(xiàn),對兩組數(shù)據(jù)使用相同的混合因子和數(shù)據(jù)打亂方法對模型的性能有提升效果。作者對特征的表達也使用了相同的數(shù)據(jù)混合策略。
          其中指數(shù)因子控制著動量的程度。如偽代碼及流程圖所示,"教師"網(wǎng)絡(luò)同時利用自身和"學(xué)生"網(wǎng)絡(luò)進行更新。而在實際中,作者輸入到"學(xué)生"模型,輸入到"教師"模型。分別使用表示"學(xué)生"網(wǎng)絡(luò)和"老師"網(wǎng)絡(luò)的輸出特征向量。
          Homogeneous and Heterogeneous Pairs:為了構(gòu)造同質(zhì)數(shù)據(jù)對,作者假設(shè)數(shù)據(jù)增強(包括文中用到的mixing operation混合操作)只會略微改變訓(xùn)練數(shù)據(jù)的分布。那么每個同質(zhì)性配對的數(shù)據(jù)包含的是經(jīng)過一些列同樣的數(shù)據(jù)增強,批次數(shù)據(jù)混合以及特征混合的數(shù)據(jù)。對于同質(zhì)數(shù)據(jù)對,只需要將當(dāng)前特征和所有的已經(jīng)存儲的隊列中特征進行對

          Feature Comparison, Memory Q and Loss Function:如偽代碼如所示,C2L模型優(yōu)化最小化同質(zhì)數(shù)據(jù)對之間的距離,最大化異質(zhì)數(shù)據(jù)之間的距離。

          解讀上述公式,作者首先通過設(shè)計兩組不同數(shù)據(jù)增強后的數(shù)據(jù)(),分別對應(yīng)"學(xué)生"和"老師"兩個模型。對于學(xué)生模型,只進行batch mixup,也就是將一個批次內(nèi)的數(shù)據(jù)進行混合,輸出兩個特征向量,分別對應(yīng)混合前和混合后數(shù)據(jù)特征;對于"老師"模型,多加了一個Feature mixup,也就是在輸出的特征向量處進行了再次的混合操作。在損失函數(shù)的設(shè)計上,利用交叉熵?fù)p失函數(shù),進行優(yōu)化(偽代碼中已寫得非常清楚)。在訓(xùn)練的過程中,會有一個記憶隊列Q,保存特征向量以進行迭代優(yōu)化。
          消融實驗發(fā)現(xiàn),本文提出的混合方法相比與原始的混合方法有約1.6%的性能提升。使用文中定義的數(shù)據(jù)增強策略能夠提升數(shù)據(jù)的多樣性,增加網(wǎng)絡(luò)提取不同X光數(shù)據(jù)特征的能力。
          使用C2L模型,在后續(xù)任務(wù)上進行模型的微調(diào)。
          與預(yù)訓(xùn)練模型Model Genesis以及在ImageNet和MoCo數(shù)據(jù)集上進行預(yù)訓(xùn)練的模型相比,使用ResNet-18和DenseNet-121網(wǎng)絡(luò)結(jié)構(gòu)在C2L預(yù)訓(xùn)練模型的基礎(chǔ)上做Fine-tune,性能提升顯著。后續(xù)的實驗均驗證了C2L預(yù)訓(xùn)練模型的優(yōu)越性,也從側(cè)面證明了預(yù)訓(xùn)練模型對性能提升的幫助。

          03?DATASETS?& Results

          預(yù)訓(xùn)練:ImageNet 預(yù)訓(xùn)練使用了約一百萬帶標(biāo)注的數(shù)據(jù)。本文作者使用了 ChestXray14,MIMIC-CXR,CheXpert和MURA四種不帶標(biāo)簽的約70萬數(shù)據(jù)進行無監(jiān)督預(yù)訓(xùn)練。只用了ChestX-ray14 進行消融實驗以選擇合適的超參數(shù)。實現(xiàn)細(xì)節(jié)以及消融實驗:由于已開源,這里就不展開細(xì)說。首先看看Mix方法做的實驗結(jié)果,發(fā)現(xiàn)Batch mixing 和Feature mixing提升明顯。


          對比數(shù)據(jù)增強策略和記憶隊列Q保存特征長度對性能的影響。


          ChestX-ray14數(shù)據(jù)集上性能的對比。C2L模型性能提升顯著。


          CheXpert數(shù)據(jù)集中,預(yù)訓(xùn)練模型及MG等性能的對比,C2L約有1%的提升。

          Kaggl肺炎數(shù)據(jù)集不同閾值下mAP,C2L也有不錯的表現(xiàn)。


          04??Conclusion

          作者提出了一種自監(jiān)督學(xué)習(xí)方法C2L,利用次方法從無標(biāo)簽醫(yī)學(xué)數(shù)據(jù)中提取這類數(shù)據(jù)的特征表達。這種方法通過利用數(shù)據(jù)間的相關(guān)性作為監(jiān)督信息而無需額外人工標(biāo)注數(shù)據(jù)。


          05 結(jié)語

          作者從問題的發(fā)現(xiàn),Idea的提出以及后續(xù)的實驗驗證。筆者作以下幾點個人的思考和總結(jié):
          1、預(yù)訓(xùn)練模型對任務(wù)模型進行參數(shù)初始化,再進行Fine-tune是可以在一定程度上提升模型性能以及加快模型收斂速度的;
          2、預(yù)訓(xùn)練模型數(shù)據(jù)與任務(wù)模型數(shù)據(jù)的相關(guān)性影響性能。即如果任務(wù)模型數(shù)據(jù)和預(yù)訓(xùn)練數(shù)據(jù)強相關(guān),那么性能的提升和訓(xùn)練收斂速度的提速都較明顯;而如果數(shù)據(jù)差異較大,可能對任務(wù)模型有幫助,但幫助不會太大;
          3、作者提出的方法從數(shù)據(jù)相關(guān)性構(gòu)造監(jiān)督信息,然后對無標(biāo)簽數(shù)據(jù)進行訓(xùn)練以達到預(yù)訓(xùn)練模型的效果。此方法可以在實際工作中,結(jié)合任務(wù)需求及數(shù)據(jù)集大小,參照該方法訓(xùn)練自己的預(yù)訓(xùn)練模型;
          4、開源70萬量級的X光預(yù)訓(xùn)練模型和訓(xùn)練代碼是真的香;
          5、數(shù)據(jù)決定了算法模型的上限!深入挖掘數(shù)據(jù),也許可以進一步找到提升天花板高度的梯子。


          推薦閱讀



          首屆珠港澳人工智能算法大賽即將開賽

          賽題一:短袖短褲識別

          賽題二:小攤販占道識別

          即將開賽 等你加入


          添加極市小助手微信(ID : cvmart2),備注:姓名-學(xué)校/公司-研究方向-城市(如:小極-北大-目標(biāo)檢測-深圳),即可申請加入極市目標(biāo)檢測/圖像分割/工業(yè)檢測/人臉/醫(yī)學(xué)影像/3D/SLAM/自動駕駛/超分辨率/姿態(tài)估計/ReID/GAN/圖像增強/OCR/視頻理解等技術(shù)交流群:月大咖直播分享、真實項目需求對接、求職內(nèi)推、算法競賽、干貨資訊匯總、與?10000+來自港科大、北大、清華、中科院、CMU、騰訊、百度等名校名企視覺開發(fā)者互動交流~

          △長按添加極市小助手

          △長按關(guān)注極市平臺,獲取最新CV干貨

          覺得有用麻煩給個在看啦~??
          瀏覽 171
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  岛国乱婬A片免费看 | 美艳麻麻诱子乱小说 | 国产精品久久久久久久久免费相片 | 色播影院怡红院 | 天堂精品在线 |