目標(biāo)檢測(cè)算法終結(jié)篇:YOLOv7(非正式版)正式開源
點(diǎn)擊下方卡片,關(guān)注“新機(jī)器視覺”公眾號(hào)
視覺/圖像重磅干貨,第一時(shí)間送達(dá)
請(qǐng)注意,這里的7,不是下一代YOLO,而是一個(gè)幸運(yùn)數(shù)字,姑且可以看作是一個(gè)代號(hào)。它的目的是讓YOLO全面開花,不僅僅只是做目標(biāo)檢測(cè)。也不是簡(jiǎn)單的加一個(gè)semantic head做分割,而是做一個(gè)體系的目標(biāo)檢測(cè)積木模塊,即插即用,使之能夠更簡(jiǎn)單的做復(fù)雜的上層任務(wù),比如多個(gè)分類head,實(shí)例分割,甚至是加上姿態(tài)檢測(cè)等等。


介紹


目前支持的東西就這么一些,現(xiàn)列舉一些大家可能感興趣的:
支持GridMask,Mosiac的數(shù)據(jù)增強(qiáng),而且可以可視化;
支持YOLOX(很強(qiáng)),而且部署方式比原版更方便,可訓(xùn)練,官方不是唯一可選;
支持YOLOv7+實(shí)例分割,是SingleStage的方式,目前用的是OrienMaskHead,未來可能增加更多方式;
支持DETR,AnchorDETR等transformer,這是獨(dú)一無二的,在一個(gè)框架里面同時(shí)被支持;
YOLOv4 contained with CSP-Darknet53;
YOLOv7 arch with resnets backbone;
YOLOv7 arch with resnet-vd backbone (likely as PP-YOLO), deformable conv, Mish etc;
GridMask augmentation from PP-YOLO included;
YOLOv7 arch Swin-Transformer support (higher accuracy but lower speed);
YOLOv7 arch Efficientnet + BiFPN;
YOLOv5 style positive samples selection, new coordinates coding style;
RandomColorDistortion, RandomExpand, RandomCrop, RandomFlip;
CIoU loss (DIoU, GIoU) and label smoothing (from YOLOv5 & YOLOv4);
YOLOF also included;
YOLOv7 Res2net + FPN supported;
Pyramid Vision Transformer v2 (PVTv2) supported;
WBF (Weighted Box Fusion), this works better than NMS,?link;
YOLOX like head design and anchor design, also training support;
YOLOX s,m,l backbone and PAFPN added, we have a new combination of YOLOX backbone and pafpn;
YOLOv7 with Res2Net-v1d backbone, we?found res2net-v1d?have a better accuracy then darknet53;
Added PPYOLOv2 PAN neck with SPP and dropblock;
YOLOX arch added, now you can train YOLOX model (anchor free yolo) as well;
DETR: transformer based detection model and?onnx export supported, as well as TensorRT acceleration;
AnchorDETR: Faster converge version of detr, now supported!
最后強(qiáng)調(diào)一下,這個(gè)版本里面的transformer是支持轉(zhuǎn)到ONNX的,并且這個(gè)ONNX是可以被TensorRT推理的。據(jù)我所知,這在全網(wǎng)沒有任何一個(gè)開源的倉(cāng)庫(kù)做得到。




社區(qū)支持
為什么要開源這個(gè)框架,原因主要是兩個(gè):
我希望利用社區(qū)的力量把它做的更完善,增加更多的功能,這一年我們?cè)絹碓较嘈派鐓^(qū)的力量,眾人拾材火焰高,不同的人研究?jī)?yōu)化不同的方向,就可以把這個(gè)框架被更多人用起來,用它訓(xùn)練的模型和部署起來的模型就可以跑在更多的地方,這才是價(jià)值所在;
我沒有卡繼續(xù)維護(hù)這些模型,希望有卡的朋友們一起來訓(xùn)模型,把社區(qū)做起來。
一個(gè)好的框架離不開發(fā)起人的積極參與和技術(shù)支持,我會(huì)一如既往的回答大家的問題,希望能給開源盡一些綿薄之力。
非常歡迎有時(shí)間,有計(jì)算資源,懂行的朋友來貢獻(xiàn)代碼或者模型,尤其是做目標(biāo)檢測(cè)方向的朋友們,這確實(shí)是發(fā)自內(nèi)心一個(gè)非常良心的建議,把這些好的算法都匯聚到一起來吧。讓社區(qū)的力量把它發(fā)展的更加壯大。
Github:https://github.com/jinfagang/yolov7
GridMask

Mosaic


來源:計(jì)算機(jī)視覺研究院
本文僅做學(xué)術(shù)分享,如有侵權(quán),請(qǐng)聯(lián)系刪文。
