<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          YOLOv5拋棄Anchor-Base方法 | YOLOv5u正式加入Anchor-Free大家庭

          共 1248字,需瀏覽 3分鐘

           ·

          2023-02-25 07:30

          點(diǎn)擊下方卡片,關(guān)注「集智書(shū)童」公眾號(hào)

          點(diǎn)擊加入??「集智書(shū)童-YOLO算法」交流群

          「YOLOv5本來(lái)的樣子還記得嘛」

          話不多說(shuō),先總結(jié)一下歷史上的YOLOv5吧:

          1. 「Backbone」:CSPDarkNet(沒(méi)有Fusion Last模塊)
          2. 「Neck」:PAFPN
          3. 「Head」:Coupled Head
          4. 「Assignment」:Line IOU Assignment
          5. 「Loss」:分類(lèi)==>BCE Loss,回歸==>CIoU Loss

          這樣大家應(yīng)該比較清楚YOLOv5的大概知識(shí)脈絡(luò)了;

          這里借用其他小伙伴繪制的YOLOv5的結(jié)構(gòu)圖,可以看到Y(jié)OLOv5的Backbone和Neck部分主要使用的是CBS模塊和C3模塊進(jìn)行網(wǎng)絡(luò)架構(gòu)的搭建,而Head部分則是使用的耦合在一起的Head,即Coupled-Head,我們都知道,這樣做可以進(jìn)一步提升模型的執(zhí)行效率,降低模型的推理時(shí)間和參數(shù)量:

          「YOLOv5u是怎么回事呢」

          我們先對(duì)比一下YOLOv8的YAML和YOLOv5u的YAML,你就全明白了?。?!

          是的,所謂的Anchor-Free版本的YOLOv5u,就是原始版本的YOLOv5+YOLOv8的Detect Head,當(dāng)然肯定也繼承了YOLOv8的種除了基于梯度流的網(wǎng)絡(luò)聚合設(shè)計(jì)思想以外的所有優(yōu)點(diǎn),比如DFL Loss、TAL匹配以及Decoupled Head等。

          最后看看YOLOv8的Detect Head的樣子吧?。?!依舊是借用網(wǎng)絡(luò)小伙伴的一張圖:

          是不是很時(shí)髦的樣子,是的,Decoupled Head+Anchor-Free就是潮流與時(shí)尚!所以YOLOv5就是繼承了YOLOv8的檢測(cè)頭(上圖中的紅色框內(nèi)的Head)和匹配方法以及損失函數(shù)。

          記得一定去學(xué)習(xí)YOLOv5u哦!??!

          參考

          [1].https://github.com/ultralytics/ultralytics.

          推薦閱讀

          改進(jìn)YOLOX | Push-IOU+Dynamic Anchor進(jìn)一步提升YOLOX性能


          即插即用 | CFNet提出全新多尺度融合方法!顯著提升檢測(cè)和分割精度!


          一文全覽 | 自動(dòng)駕駛Cornor-Case檢測(cè)數(shù)據(jù)集


          掃碼加入??「集智書(shū)童-YOLO算法」交流群

          (備注:方向+學(xué)校/公司+昵稱(chēng)

          想要了解更多:

          前沿AI視覺(jué)感知全棧知識(shí)??「分類(lèi)、檢測(cè)、分割、關(guān)鍵點(diǎn)、車(chē)道線檢測(cè)、3D視覺(jué)(分割、檢測(cè))、多模態(tài)、目標(biāo)跟蹤、NerF

          行業(yè)技術(shù)方案??AI安防、AI醫(yī)療、AI自動(dòng)駕駛
          AI模型部署落地實(shí)戰(zhàn)??CUDA、TensorRT、NCNN、OpenVINO、MNN、ONNXRuntime以及地平線框架」

          歡迎掃描上方二維碼,加入集智書(shū)童-知識(shí)星球,日常分享論文、學(xué)習(xí)筆記、問(wèn)題解決方案、部署方案以及全棧式答疑,期待交流!

          免責(zé)聲明
          凡本公眾號(hào)注明“來(lái)源:XXX(非集智書(shū)童)”的作品,均轉(zhuǎn)載自其它媒體,版權(quán)歸原作者所有,如有侵權(quán)請(qǐng)聯(lián)系我們刪除,謝謝。

          點(diǎn)擊下方“閱讀原文”,
          了解更多AI學(xué)習(xí)路上的「武功秘籍」

          瀏覽 123
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  精品成人无码麻豆 | 日日日日日日日日日日日日日日日干 | 爱骚逼自拍偷拍精品视频 | 操逼视频d3tt.s8 | 国产一级A片视频 |