<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          FastestDet:比yolov5更快!更強(qiáng)!全新設(shè)計(jì)的超實(shí)時(shí)Anchor-free目標(biāo)檢測算法(附源代碼下載)

          共 2078字,需瀏覽 5分鐘

           ·

          2022-07-09 20:43

          本篇文章轉(zhuǎn)自于知乎——qiuqiuqiu,主要設(shè)計(jì)了一個(gè)新穎的輕量級(jí)網(wǎng)絡(luò)!

          https://zhuanlan.zhihu.com/p/536500269 編輯:計(jì)算機(jī)視覺研究院

          代碼地址:https://github.com/dog-qiuqiu/FastestDet


          01

          概述


          FastestDet是設(shè)計(jì)用來接替yolo-fastest系列算法,相比于業(yè)界已有的輕量級(jí)目標(biāo)檢測算法如yolov5n, yolox-nano, nanoDet, pp-yolo-tiny, FastestDet和這些算法壓根兒不是一個(gè)量級(jí),F(xiàn)astestDet無論在速度還是參數(shù)量上,都是要小好幾個(gè)數(shù)量級(jí)的(不要在拿int8的模型和我fp32的模型比體積了,不公平),但是精度自然而然也比不過。FastestDet是針對(duì)計(jì)算資源緊缺的ARM平臺(tái)設(shè)計(jì)的,突出單核效能,因?yàn)樵趯?shí)際業(yè)務(wù)場景中,不會(huì)把所有CPU資源都給推理框架做模型推理的,假如說你想在例如樹莓派, RK3399, RK3568去跑實(shí)時(shí)目標(biāo)檢測,那么FastestDet是比較好的選擇,或者移動(dòng)端上不想占用太多cpu資源,也可以去用單核并設(shè)置cpu sleep去推理FastestDet,在低功耗的條件下運(yùn)行算法。


          02

          新框架算法


          先說下FastestDet的幾個(gè)重要特性: 

          • 單輕量化檢測頭

          • anchor-free

          • 跨網(wǎng)格多候選目標(biāo)

          • 動(dòng)態(tài)正負(fù)樣本分配

          • 簡單的數(shù)據(jù)增強(qiáng)

          下面我就一個(gè)個(gè)去詳細(xì)講下吧:

          單輕量化檢測頭

          這個(gè)是對(duì)網(wǎng)絡(luò)結(jié)構(gòu)上對(duì)算法模型進(jìn)行優(yōu)化,主要是提升算法運(yùn)行速度,簡化后處理步驟,大家可以先看下這塊的網(wǎng)絡(luò)結(jié)構(gòu):

          其實(shí)多檢測頭設(shè)計(jì)的是為了適應(yīng)檢測不同尺度物體目標(biāo),高分辨率的檢測頭負(fù)責(zé)檢測小物體,低分辨的檢測頭負(fù)責(zé)檢測大物體,一種分而治之的思想。

          我個(gè)人覺得根因在于感知野,不同尺度的物體所需要的感知野是不同的,而模型每層的感知野都是不一樣的,包括FPN也是對(duì)不同感知野特征的匯總?cè)诤稀_@塊單檢測頭我也是參考的YOLOF的思想,在網(wǎng)絡(luò)結(jié)構(gòu)中,采用類似inception的5x5分組卷積并行網(wǎng)絡(luò)結(jié)構(gòu),期待能融合不同感知野的特征,讓單個(gè)檢測頭也能適應(yīng)檢測不同尺度的物體。

          Anchor-Free

          原先的anchor-base算法在訓(xùn)練模型都需要對(duì)數(shù)據(jù)集進(jìn)行anchor-bias的運(yùn)算,anchor-bias可以理解為對(duì)數(shù)據(jù)集中標(biāo)注物體的寬高進(jìn)行聚類,得到一組先驗(yàn)寬高,網(wǎng)絡(luò)在這組先驗(yàn)寬高的基礎(chǔ)上去優(yōu)化預(yù)測框的寬高。FastestDet采用的是anchor-free算法,模型是直接回歸gt于特征圖寬高的scale值的,是沒有先驗(yàn)寬高。這種方法可以簡化模型后處理。而且對(duì)于anchor-base算法每個(gè)特征圖的特征點(diǎn)是對(duì)應(yīng)N個(gè)anchor候選框的,而這種anchor-free每個(gè)特征圖的特征點(diǎn)只對(duì)應(yīng)一個(gè)候選框,所以在推理速度上也是有優(yōu)勢的。

          跨網(wǎng)格多候選目標(biāo)

          這塊還是借鑒了yolov5,不單單只把gt中心點(diǎn)所在的網(wǎng)格當(dāng)成候選目標(biāo),還把附近的三個(gè)也算進(jìn)行去,增加正樣本候選框的數(shù)量,如下圖所示:


          動(dòng)態(tài)正負(fù)樣本分配

          所謂的動(dòng)態(tài)正負(fù)樣本分配其實(shí)就是在模型訓(xùn)練過程去動(dòng)態(tài)分配正負(fù)樣本,這是有別于以前yolo-fastest的,原先yolo-fastest的anchor-bias設(shè)置好以后, 通過計(jì)算anchor-bias與gt寬高的scale,對(duì)scale卡固定閾值分配正負(fù)樣本(參考yolov5的做法),而anchor-bias和gt在訓(xùn)練過程中都是不變的,所以正負(fù)樣本分配在訓(xùn)練過程中也是不變的。

          而在FastestDet的正負(fù)樣本分配參考的ATSS,通過設(shè)置預(yù)測框與GT計(jì)算的SIOU的均值作為分配正負(fù)樣本的閾值,假如當(dāng)前預(yù)測框與GT的SIOU閾值大于均值,那么為正樣本,反之異然。(為什么沒有參考simota?那是因?yàn)樵跇?gòu)建cost矩陣時(shí),不同loss的權(quán)重還得調(diào)超參,懶的調(diào)了)

          簡單的數(shù)據(jù)增強(qiáng)

          對(duì)于輕量級(jí)的模型數(shù)據(jù)增強(qiáng)要慎重,本來學(xué)習(xí)能力差,腦子不怎么好使,上來給難題做可不拉跨,所以采用簡單的數(shù)據(jù)增強(qiáng)如隨機(jī)平移和隨機(jī)縮放,并沒有采用moscia和Mixup。


          03

          實(shí)驗(yàn)結(jié)果





          努力分享優(yōu)質(zhì)的計(jì)算機(jī)視覺相關(guān)內(nèi)容,歡迎關(guān)注:

          交流群


          歡迎加入公眾號(hào)讀者群一起和同行交流,目前有美顏、三維視覺、計(jì)算攝影、檢測、分割、識(shí)別、醫(yī)學(xué)影像、GAN、算法競賽等微信群


          個(gè)人微信(如果沒有備注不拉群!
          請(qǐng)注明:地區(qū)+學(xué)校/企業(yè)+研究方向+昵稱



          下載1:何愷明頂會(huì)分享


          AI算法與圖像處理」公眾號(hào)后臺(tái)回復(fù):何愷明,即可下載。總共有6份PDF,涉及 ResNet、Mask RCNN等經(jīng)典工作的總結(jié)分析


          下載2:終身受益的編程指南:Google編程風(fēng)格指南


          AI算法與圖像處理」公眾號(hào)后臺(tái)回復(fù):c++,即可下載。歷經(jīng)十年考驗(yàn),最權(quán)威的編程規(guī)范!



          下載3 CVPR2021

          AI算法與圖像處公眾號(hào)后臺(tái)回復(fù):CVPR,即可下載1467篇CVPR 2020論文 和 CVPR 2021、CVPR2022 最新論文

            瀏覽 30
            點(diǎn)贊
            評(píng)論
            收藏
            分享

            手機(jī)掃一掃分享

            分享
            舉報(bào)
            評(píng)論
            圖片
            表情
            推薦
            點(diǎn)贊
            評(píng)論
            收藏
            分享

            手機(jī)掃一掃分享

            分享
            舉報(bào)
            <kbd id="afajh"><form id="afajh"></form></kbd>
            <strong id="afajh"><dl id="afajh"></dl></strong>
              <del id="afajh"><form id="afajh"></form></del>
                  1. <th id="afajh"><progress id="afajh"></progress></th>
                    <b id="afajh"><abbr id="afajh"></abbr></b>
                    <th id="afajh"><progress id="afajh"></progress></th>
                    乱伦黄片| 草青青成人 | 在线国色天看一区一 | 天天摸日日摸人人看 | 成人精品水蜜桃 |