<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          【目標(biāo)檢測(cè)算法50篇速覽】4,Anchor Free及Transformer時(shí)代

          共 3814字,需瀏覽 8分鐘

           ·

          2020-11-02 11:24

          前三章指路

          完成前三章的速覽以后,到18年底的檢測(cè)網(wǎng)絡(luò)發(fā)展情況相信讀者已經(jīng)基本心里有數(shù)了,第四章我們將開(kāi)始介紹從19年的anchor free類目標(biāo)檢測(cè)算法,到最新的transformer目標(biāo)檢測(cè)算法并嘗試提供相應(yīng)的代碼倉(cāng)庫(kù),以便更好的把握檢測(cè)網(wǎng)絡(luò)的發(fā)展。

          第一篇《CornerNet: Detecting Objects as Paired Keypoints》

          提出時(shí)間:2018

          針對(duì)問(wèn)題:

          如第三章第八篇,有學(xué)者提出了基于目標(biāo)的角點(diǎn)進(jìn)行目標(biāo)檢測(cè)的思路,這種思路的優(yōu)勢(shì)就是避免了anchor設(shè)計(jì)時(shí)不同長(zhǎng)寬比的調(diào)整,且在不同的網(wǎng)絡(luò)層不同尺度的設(shè)計(jì)也能統(tǒng)一,從而降低了超參數(shù)的數(shù)量。

          創(chuàng)新點(diǎn):

          anchor free ,利用corner來(lái)做,1)內(nèi)嵌映射2)角點(diǎn)的特征值回傳及l(fā)oss計(jì)算方式。

          CornerNet

          詳解博客:https://blog.csdn.net/u014380165/article/details/83032273

          第二篇《ExtremeNet》

          提出時(shí)間:2019

          針對(duì)問(wèn)題:

          單純用角點(diǎn)進(jìn)行目標(biāo)的檢測(cè)存在一個(gè)問(wèn)題是對(duì)目標(biāo)來(lái)說(shuō)其角點(diǎn)大多都不在目標(biāo)上,單純采用角點(diǎn)來(lái)進(jìn)行目標(biāo)的檢測(cè)并沒(méi)有很好的利用目標(biāo)樣例上的特征。那么如何參考利用目標(biāo)內(nèi)的特征來(lái)實(shí)現(xiàn)更高精度的anchor free目標(biāo)檢測(cè)就是作者著力解決的問(wèn)題。

          創(chuàng)新點(diǎn):

          anchor free 方案,通過(guò)目標(biāo)的四個(gè)方向的極值點(diǎn)和中心點(diǎn)來(lái)實(shí)現(xiàn)目標(biāo)檢測(cè)。

          ExtremeNet

          詳解博客:https://blog.csdn.net/sinat_37532065/article/details/86693930

          庫(kù)地址:https://github.com/xingyizhou/ExtremeNet

          第三篇《FCOS》(建議重點(diǎn)細(xì)看)

          提出時(shí)間:2019

          針對(duì)問(wèn)題:

          嘗試將anchor free算法和已有的一段式檢測(cè)網(wǎng)絡(luò)結(jié)合,提出性能更加優(yōu)越的檢測(cè)網(wǎng)絡(luò)模型。

          創(chuàng)新點(diǎn):

          FCOS以一種類似語(yǔ)義分割的方式,按像素進(jìn)行預(yù)測(cè),解決目標(biāo)檢測(cè)問(wèn)題

          詳解博客:https://blog.csdn.net/sinat_37532065/article/details/105252340

          github倉(cāng)庫(kù):https://github.com/tianzhi0549/FCOS/

          第四篇《CenterNet》(建議重點(diǎn)細(xì)看)

          提出時(shí)間:2019

          針對(duì)問(wèn)題:

          作者參考了cornernet和extremenet,發(fā)現(xiàn)兩者雖然都嘗試優(yōu)化了anchor設(shè)計(jì)的復(fù)雜超參數(shù)調(diào)優(yōu),但是其檢測(cè)目標(biāo)特征點(diǎn)的組隊(duì)過(guò)程仍舊略顯繁復(fù)。所以作者考慮如何進(jìn)一步優(yōu)化該問(wèn)題來(lái)達(dá)到更高效的anchor-free檢測(cè)模型。

          創(chuàng)新點(diǎn):

          作者考慮只使用目標(biāo)的中心點(diǎn)(center),從而將目標(biāo)檢測(cè)任務(wù)轉(zhuǎn)換為圖像中的關(guān)鍵點(diǎn)檢測(cè)任務(wù)。然后通過(guò)在這個(gè)關(guān)鍵點(diǎn)來(lái)回歸其所指向的目標(biāo)類別以及以當(dāng)前點(diǎn)為中心構(gòu)建的目標(biāo)最小外接矩形到改點(diǎn)的四個(gè)回歸值來(lái)完成目標(biāo)的檢測(cè)任務(wù)。

          詳解博客:https://baijiahao.baidu.com/s?id=1644905321397514137&wfr=spider&for=pc

          第五篇《FSAF》

          提出時(shí)間:2019

          針對(duì)問(wèn)題:

          當(dāng)前檢測(cè)算法大多都是anchor based,通過(guò)設(shè)置不同的anchor來(lái)在FPN輸出的多張?zhí)卣鲌D上進(jìn)行目標(biāo)的檢測(cè),我們一般經(jīng)驗(yàn)的認(rèn)為在網(wǎng)絡(luò)深層的特征圖上檢測(cè)大目標(biāo)而在淺層的特征圖上檢測(cè)小目標(biāo)。但是作者發(fā)現(xiàn)在實(shí)際網(wǎng)絡(luò)訓(xùn)練過(guò)程中,可能40x40和60x60的目標(biāo)被分配給了FPN的不同層。為了嘗試優(yōu)化對(duì)FPN特征層的利用,同時(shí)降低過(guò)采樣anchor帶來(lái)的計(jì)算量,作者提出了該網(wǎng)絡(luò)模型。

          創(chuàng)新點(diǎn):

          主要是通過(guò)在檢測(cè)網(wǎng)絡(luò)中添加anchor free的特征層篩選模組,來(lái)強(qiáng)化每個(gè)輸入的實(shí)例所歸屬的判定特征層,從而充分利用FPN的性能。提出了Online feature selection方法,改善了基于anchor機(jī)制和feature pyramids的single-shot檢測(cè)器的兩個(gè)潛在問(wèn)題。FSAF在COCO數(shù)據(jù)集上達(dá)到了state-of-art,mAP為44.6%,超過(guò)了所有single-shot檢測(cè)器。同時(shí)額外的計(jì)算量很小。

          FSAF

          詳解博客:https://www.cnblogs.com/fourmi/p/10602936.html

          第六篇《NAS-FPN》

          提出時(shí)間:2019

          針對(duì)問(wèn)題:

          有學(xué)者認(rèn)為當(dāng)前FPN的設(shè)計(jì)并不一定是最優(yōu)的結(jié)果,結(jié)合現(xiàn)下的NAS搜索技術(shù),嘗試得到更優(yōu)的FPN結(jié)構(gòu)

          創(chuàng)新點(diǎn):

          利用網(wǎng)絡(luò)結(jié)構(gòu)搜索技術(shù)來(lái)得到的結(jié)構(gòu)更好的FPN結(jié)構(gòu)

          詳解博客:https://blog.csdn.net/qq_41375609/article/details/98499442

          第七篇《DetNAS》

          提出時(shí)間:2019

          針對(duì)問(wèn)題:

          作者認(rèn)為之前檢測(cè)網(wǎng)絡(luò)的backbone大多都是基于分類任務(wù)完成的,分類任務(wù)得到的模型并不關(guān)心圖像中目標(biāo)的位置信息,所以作者嘗試?yán)肗AS技術(shù)得到更適合檢測(cè)任務(wù)的backbone網(wǎng)絡(luò)。

          創(chuàng)新點(diǎn):

          利用網(wǎng)絡(luò)結(jié)構(gòu)搜索技術(shù)來(lái)得到的檢測(cè)網(wǎng)絡(luò)專用backbone,作者的試驗(yàn)證明確實(shí)是對(duì)檢測(cè)精度有提升。

          詳解博客:https://blog.csdn.net/mrjkzhangma/article/details/103369432

          第八篇《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》

          提出時(shí)間:2019

          針對(duì)問(wèn)題:

          卷積神經(jīng)網(wǎng)絡(luò)(ConvNets)通常是在固定的資源預(yù)算下發(fā)展起來(lái)的,如果有更多的資源可用的話,則會(huì)擴(kuò)大規(guī)模以獲得更好的精度,比如可以提高網(wǎng)絡(luò)深度(depth)網(wǎng)絡(luò)寬度(width)輸入圖像分辨率 (resolution)大小。但是通過(guò)人工去調(diào)整 depth, width, resolution 的放大或縮小的很困難的,在計(jì)算量受限時(shí)有放大哪個(gè)縮小哪個(gè),這些都是很難去確定的,換句話說(shuō),這樣的組合空間太大,人力無(wú)法窮舉。基于上述背景,作者嘗試提出復(fù)合模型擴(kuò)張方法結(jié)合神經(jīng)結(jié)構(gòu)搜索技術(shù)獲得的更優(yōu)的網(wǎng)絡(luò)結(jié)構(gòu)。

          創(chuàng)新點(diǎn):

          該論文提出了一種新的模型縮放方法,它使用一個(gè)簡(jiǎn)單而高效的復(fù)合系數(shù)來(lái)從depth, width, resolution 三個(gè)維度放大網(wǎng)絡(luò),不會(huì)像傳統(tǒng)的方法那樣任意縮放網(wǎng)絡(luò)的維度,基于神經(jīng)結(jié)構(gòu)搜索技術(shù)可以獲得最優(yōu)的一組參數(shù)(復(fù)合系數(shù))。

          詳解博客:https://blog.csdn.net/mrjkzhangma/article/details/103369432

          代碼:https://github.com/qubvel/efficientnet

          第九篇《DETR》

          提出時(shí)間:2020

          針對(duì)問(wèn)題:

          作者嘗試將NLP領(lǐng)域的transformer引入目標(biāo)檢測(cè)任務(wù)中,目的是想進(jìn)一步的降低網(wǎng)絡(luò)的超參數(shù)。

          創(chuàng)新點(diǎn):

          第一個(gè)將 Transformer 成功整合為檢測(cè) pipeline 中心構(gòu)建塊的目標(biāo)檢測(cè)框架?;赥ransformers的端到端目標(biāo)檢測(cè),沒(méi)有NMS后處理步驟、真正的沒(méi)有anchor,且對(duì)標(biāo)超越Faster RCNN

          詳解博客:https://blog.csdn.net/c2250645962/article/details/106399116

          代碼:https://github.com/facebookresearch/detr

          本章總結(jié)

          到了本章,學(xué)者們嘗試進(jìn)一步優(yōu)化anchor base類算法,考慮到anchor設(shè)計(jì)時(shí)的大量經(jīng)驗(yàn)參數(shù),進(jìn)一步的優(yōu)化anchor設(shè)計(jì),完成了從框匹配到直接點(diǎn)回歸的進(jìn)化;對(duì)檢測(cè)網(wǎng)絡(luò)的backbone方面,學(xué)者們也通過(guò)嘗試希望更好的利用輸入的特征來(lái)提高檢測(cè)的效果。其中CenterNet和FCOS的代碼和論文建議大家有時(shí)間的話精度。再之后就是嘗試將transformer整合進(jìn)檢測(cè)任務(wù)中,例如DETR模型,有精力的同學(xué)也推薦閱讀和學(xué)習(xí)。

          --------------------------------周年送書(shū)活動(dòng)獲獎(jiǎng)名單------------------------

          • Robot
          • ____烤冷面Plus Pro
          • copain
          • Veronica
          • 廈鷺
          • Immortal
          • 遠(yuǎn)在咫尺
          • 野狼
          • 江梅去去木犀晚
          • June

          請(qǐng)聯(lián)系GiantPandaCV小助手(微信號(hào):Lloyd6446 ,添加時(shí)備注獲獎(jiǎng))填寫(xiě)收貨地址,我們將盡快為你寄出禮品。


          歡迎關(guān)注GiantPandaCV, 在這里你將看到獨(dú)家的深度學(xué)習(xí)分享,堅(jiān)持原創(chuàng),每周分享我們學(xué)習(xí)到的新鮮知識(shí)。( ? ?ω?? )?

          有對(duì)文章相關(guān)的問(wèn)題,或者想要加入交流群,歡迎添加BBuf微信:

          二維碼

          為了方便讀者獲取資料以及我們公眾號(hào)的作者發(fā)布一些Github工程的更新,我們成立了一個(gè)QQ群,二維碼如下,感興趣可以加入。

          公眾號(hào)QQ交流群


          瀏覽 39
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  操屄簧片一级毛片 | 国产无码专区 | 国产福利AV | 大香蕉伊人性爱 | 另类专区亚洲 |