目標檢測開源框架YOLOv6全面升級,更快更準的2.0版本來啦

官方出品詳細的Tech Report帶你解構YOLOv6:YOLOv6: A Single-Stage Object Detection Framework for Industrial Applications。


注:YOLOv6系列模型均在訓練300epoch且不使用預訓練模型或額外檢測數(shù)據(jù)集下獲得,”?“表示采用了自蒸餾算法,”?“表示從官方代碼庫對發(fā)布模型進行重新測評的指標。以上速度指標均在T4 TRT7.2 環(huán)境下測試。
針對中大型模型(YOLOv6-M/L),設計了新主干網(wǎng)絡 CSPStackRep,它在綜合性能上比上一版的 Single Path 結構更具優(yōu)勢。 針對不同網(wǎng)絡,系統(tǒng)性地驗證了各種最新策略/算法的優(yōu)劣,綜合精度和速度,為每類網(wǎng)絡選擇合適的方案。同時將模型整體訓練時間減少了 50%,極大地提升了模型的訓練效率。 引入自蒸餾思想并設計了新的學習策略,大幅提升了 YOLOv6-M/L 的模型精度。 通過訓練時 Early Stop 強數(shù)據(jù)增強及推理時圖像 Resize 優(yōu)化策略,修復了前期版本中輸入尺寸對齊到 640x640 后精度損失的問題,提升了現(xiàn)有模型的實際部署精度。
YOLOv6-M 在 COCO val 上 取得了 49.5% 的精度,在 T4 顯卡上使用 TRT FP16 batchsize=32 進行推理,可達到 233 FPS 的性能。 YOLOv6-L 在 COCO val 上 取得了 52.5% 的精度,在 T4 顯卡上使用 TRT FP16 batchsize=32 進行推理,可達到 121 FPS 的性能。 同時,YOLOv6-N/ S 模型在保持同等推理速度情況下,大幅提升了精度指標,訓練400 epoch 的條件下,N 網(wǎng)絡從 35.0% 提升至 36.3%,S 網(wǎng)絡從 43.1% 提升至 43.8%。

---------- END ----------
推薦閱讀
輔助模塊加速收斂,精度大幅提升!移動端實時的NanoDet-Plus來了!
機器學習算法工程師
一個用心的公眾號

評論
圖片
表情
