<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          DetCo:用于目標(biāo)檢測的無監(jiān)督對比學(xué)習(xí)

          共 1955字,需瀏覽 4分鐘

           ·

          2021-03-16 17:13

          點擊下面卡片關(guān)注AI算法與圖像處理”,選擇加"星標(biāo)"或“置頂”

          重磅干貨,第一時間送達(dá)







          摘要


          無監(jiān)督對比學(xué)習(xí)在利用CNN學(xué)習(xí)圖像表征方面取得了很大的成功。與大多數(shù)關(guān)注于提高圖像分類精度的最新方法不同,作者提出了一種新的對比學(xué)習(xí)方法,名為DetCo,它充分探索了全局圖像和局部圖像塊之間的對比,以學(xué)習(xí)區(qū)分表示用于目標(biāo)檢測。德科有幾個吸引人的優(yōu)點。(1)它是通過研究現(xiàn)有的自我監(jiān)督方法的缺點而精心設(shè)計的,這些方法放棄了對象檢測的重要表示。(2)在全局圖像和局部小塊之間建立分層的中間對比損耗來提高目標(biāo)檢測,同時保持全局表示來進(jìn)行圖像識別。理論分析表明,局部小塊實際上去除了圖像的上下文信息,提高了互信息的下界,從而更好地進(jìn)行對比學(xué)習(xí)。(3)在PASCAL VOC、COCO和cityscape上的大量實驗表明,DetCo不僅在目標(biāo)檢測、分割、姿態(tài)估計和三維形狀預(yù)測方面都優(yōu)于目前最先進(jìn)的方法,而且在圖像分類方面仍然具有競爭力。例如,在PASCAL VOC上,DetCo-100ep達(dá)到了57.4 mAP,與MoCov2-800ep的結(jié)果相當(dāng)。此外,在掩碼RCNN-C4/FPN/RetinaNet上,DetCo始終以1.6/1.2/1.0 AP優(yōu)于監(jiān)督方法。


          代碼鏈接1:https://github.com/xieenze/DetCo

          代碼鏈接2:https://github.com/open-mmlab/OpenSelfSup


          論文創(chuàng)新點


          這項工作的主要貢獻(xiàn)有三方面。

          (1)當(dāng)自我監(jiān)督學(xué)習(xí)表征被轉(zhuǎn)移到下游任務(wù)時,圖像分類和目標(biāo)檢測的準(zhǔn)確性不一致。作者提出了三種潛在的方法來設(shè)計適合的無監(jiān)督借口任務(wù)用于目標(biāo)檢測。據(jù)作者所知,這是第一次深入研究這一問題的工作。

          (2)作者提出了一種新的檢測友好的自我監(jiān)督方法,DetCo,它能夠結(jié)合多個全局和局部的對比損耗來改進(jìn)對比學(xué)習(xí),以訓(xùn)練用于目標(biāo)檢測的鑒別表示。理論論證表明,DetCo能夠提高對比學(xué)習(xí)中互信息的下界。

          (3)在PASCAL VOC[15]、COCO[28]和Cityscapes[6]上進(jìn)行的大量實驗表明,當(dāng)轉(zhuǎn)移到不同的下游任務(wù),如對象檢測、分割、姿態(tài)估計和三維形狀預(yù)測時,DetCo的性能優(yōu)于以往最先進(jìn)的方法。


          框架結(jié)構(gòu)


          與MoCo相比,DetCo的整體管道。(a)是MoCo的框架,僅從全局角度考慮高層次特征和學(xué)習(xí)對比。(b)是作者的DetCo,它直接添加分層中間對比度和兩個額外的局部patch視圖作為輸入,通過全局和局部表示構(gòu)建對比度損失。作者的德科通過遵循建議的三個良好實踐來提高檢測轉(zhuǎn)移能力。注意,T表示圖像變換,Ll2g表示交叉局部和全局特征的對比損失。Queueg/l表示不同的內(nèi)存為全局/本地特性。


          實驗結(jié)果

          由DetCo和MoCov2[5]生成的注意力地圖。與MoCov2相比,DetCo可以更準(zhǔn)確地激活熱圖中的目標(biāo)區(qū)域。更多的可視化結(jié)果見附錄。

          由DetCo和MoCov2制作的注意力地圖。與MoCov2相比,DetCo可以激活更多的熱圖中的物體區(qū)域,并且在物體邊界上,DetCo的注意圖比MoCov2更準(zhǔn)確。放大以獲得更好的可視化結(jié)果。


          結(jié)論

          在本文中,作者重點設(shè)計了一個好的目標(biāo)檢測借口任務(wù)。首先,作者詳細(xì)分析了一系列的自監(jiān)督方法,認(rèn)為性能不一致性轉(zhuǎn)移到分類檢測任務(wù)中。其次,作者提出三個良好的實踐來設(shè)計一個檢測友好的自我監(jiān)督學(xué)習(xí)框架。第三,遵循建議的實踐,作者提出DetCo,具有層次的中間對比損失和交叉全局和局部對比。它在一系列與檢測相關(guān)的任務(wù)上實現(xiàn)了最先進(jìn)的性能。作者認(rèn)為,對于不同的下游任務(wù),不存在單一的最佳無監(jiān)督借口任務(wù),作者將在今后的工作中進(jìn)行更多的探索。


          鏈接:https://arxiv.org/pdf/2102.04803.pdf
          個人微信(如果沒有備注不拉群!
          請注明:地區(qū)+學(xué)校/企業(yè)+研究方向+昵稱



          下載1:何愷明頂會分享


          AI算法與圖像處理」公眾號后臺回復(fù):何愷明,即可下載。總共有6份PDF,涉及 ResNet、Mask RCNN等經(jīng)典工作的總結(jié)分析


          下載2:終身受益的編程指南:Google編程風(fēng)格指南


          AI算法與圖像處理」公眾號后臺回復(fù):c++,即可下載。歷經(jīng)十年考驗,最權(quán)威的編程規(guī)范!



          下載3 CVPR2021

          AI算法與圖像處公眾號后臺回復(fù):CVPR,即可下載1467篇CVPR 2020論文 和 CVPR 2021 最新論文

          點亮 ,告訴大家你也在看




          瀏覽 90
          點贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  日屄视频免费观看 | 激情综合国产 | 日本无码片 | 精品福利一区二区 | 青娱乐在线免费 |