FastestDet:比yolov5更快!更強(qiáng)!全新設(shè)計(jì)的超實(shí)時(shí)Anchor-free目標(biāo)檢測算法(附源代碼下載)
本篇文章轉(zhuǎn)自于知乎——qiuqiuqiu,主要設(shè)計(jì)了一個(gè)新穎的輕量級(jí)網(wǎng)絡(luò)!
https://zhuanlan.zhihu.com/p/536500269 編輯:計(jì)算機(jī)視覺研究院
代碼地址:https://github.com/dog-qiuqiu/FastestDet
01
概述

02
新框架算法
先說下FastestDet的幾個(gè)重要特性:
單輕量化檢測頭
anchor-free
跨網(wǎng)格多候選目標(biāo)
動(dòng)態(tài)正負(fù)樣本分配
簡單的數(shù)據(jù)增強(qiáng)
下面我就一個(gè)個(gè)去詳細(xì)講下吧:
單輕量化檢測頭
這個(gè)是對(duì)網(wǎng)絡(luò)結(jié)構(gòu)上對(duì)算法模型進(jìn)行優(yōu)化,主要是提升算法運(yùn)行速度,簡化后處理步驟,大家可以先看下這塊的網(wǎng)絡(luò)結(jié)構(gòu):

其實(shí)多檢測頭設(shè)計(jì)的是為了適應(yīng)檢測不同尺度物體目標(biāo),高分辨率的檢測頭負(fù)責(zé)檢測小物體,低分辨的檢測頭負(fù)責(zé)檢測大物體,一種分而治之的思想。
我個(gè)人覺得根因在于感知野,不同尺度的物體所需要的感知野是不同的,而模型每層的感知野都是不一樣的,包括FPN也是對(duì)不同感知野特征的匯總?cè)诤稀_@塊單檢測頭我也是參考的YOLOF的思想,在網(wǎng)絡(luò)結(jié)構(gòu)中,采用類似inception的5x5分組卷積并行網(wǎng)絡(luò)結(jié)構(gòu),期待能融合不同感知野的特征,讓單個(gè)檢測頭也能適應(yīng)檢測不同尺度的物體。
Anchor-Free
原先的anchor-base算法在訓(xùn)練模型都需要對(duì)數(shù)據(jù)集進(jìn)行anchor-bias的運(yùn)算,anchor-bias可以理解為對(duì)數(shù)據(jù)集中標(biāo)注物體的寬高進(jìn)行聚類,得到一組先驗(yàn)寬高,網(wǎng)絡(luò)在這組先驗(yàn)寬高的基礎(chǔ)上去優(yōu)化預(yù)測框的寬高。FastestDet采用的是anchor-free算法,模型是直接回歸gt于特征圖寬高的scale值的,是沒有先驗(yàn)寬高。這種方法可以簡化模型后處理。而且對(duì)于anchor-base算法每個(gè)特征圖的特征點(diǎn)是對(duì)應(yīng)N個(gè)anchor候選框的,而這種anchor-free每個(gè)特征圖的特征點(diǎn)只對(duì)應(yīng)一個(gè)候選框,所以在推理速度上也是有優(yōu)勢的。
跨網(wǎng)格多候選目標(biāo)
這塊還是借鑒了yolov5,不單單只把gt中心點(diǎn)所在的網(wǎng)格當(dāng)成候選目標(biāo),還把附近的三個(gè)也算進(jìn)行去,增加正樣本候選框的數(shù)量,如下圖所示:

動(dòng)態(tài)正負(fù)樣本分配
所謂的動(dòng)態(tài)正負(fù)樣本分配其實(shí)就是在模型訓(xùn)練過程去動(dòng)態(tài)分配正負(fù)樣本,這是有別于以前yolo-fastest的,原先yolo-fastest的anchor-bias設(shè)置好以后, 通過計(jì)算anchor-bias與gt寬高的scale,對(duì)scale卡固定閾值分配正負(fù)樣本(參考yolov5的做法),而anchor-bias和gt在訓(xùn)練過程中都是不變的,所以正負(fù)樣本分配在訓(xùn)練過程中也是不變的。
而在FastestDet的正負(fù)樣本分配參考的ATSS,通過設(shè)置預(yù)測框與GT計(jì)算的SIOU的均值作為分配正負(fù)樣本的閾值,假如當(dāng)前預(yù)測框與GT的SIOU閾值大于均值,那么為正樣本,反之異然。(為什么沒有參考simota?那是因?yàn)樵跇?gòu)建cost矩陣時(shí),不同loss的權(quán)重還得調(diào)超參,懶的調(diào)了)
簡單的數(shù)據(jù)增強(qiáng)
對(duì)于輕量級(jí)的模型數(shù)據(jù)增強(qiáng)要慎重,本來學(xué)習(xí)能力差,腦子不怎么好使,上來給難題做可不拉跨,所以采用簡單的數(shù)據(jù)增強(qiáng)如隨機(jī)平移和隨機(jī)縮放,并沒有采用moscia和Mixup。
03
實(shí)驗(yàn)結(jié)果




交流群
歡迎加入公眾號(hào)讀者群一起和同行交流,目前有美顏、三維視覺、計(jì)算攝影、檢測、分割、識(shí)別、醫(yī)學(xué)影像、GAN、算法競賽等微信群
個(gè)人微信(如果沒有備注不拉群!) 請(qǐng)注明:地區(qū)+學(xué)校/企業(yè)+研究方向+昵稱
下載1:何愷明頂會(huì)分享
在「AI算法與圖像處理」公眾號(hào)后臺(tái)回復(fù):何愷明,即可下載。總共有6份PDF,涉及 ResNet、Mask RCNN等經(jīng)典工作的總結(jié)分析
下載2:終身受益的編程指南:Google編程風(fēng)格指南
在「AI算法與圖像處理」公眾號(hào)后臺(tái)回復(fù):c++,即可下載。歷經(jīng)十年考驗(yàn),最權(quán)威的編程規(guī)范!
下載3 CVPR2021 在「AI算法與圖像處理」公眾號(hào)后臺(tái)回復(fù):CVPR,即可下載1467篇CVPR 2020論文 和 CVPR 2021、CVPR2022 最新論文

