<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          YOLO 系目標檢測算法家族全景圖!

          共 8324字,需瀏覽 17分鐘

           ·

          2021-05-13 07:56



          YOLO目標檢測算法誕生于2015年6月,從出生的那一天起就是“高精度、高效率、高實用性”目標檢測算法的代名詞。


          在原作者Joseph Redmon博士手中YOLO經(jīng)歷了三代到YOLOv3,今年初Joseph Redmon宣告退出計算機視覺研究界后,YOLOv4、YOLOv5相繼而出,且不論誰是正統(tǒng),這YOLO算法家族在創(chuàng)始人拂袖而出后依然熱鬧非凡。


          本文帶領大家細數(shù)在此名門之中自帶“YOLO”的算法,總計 23 項工作,它們有的使YOLO更快,有的使YOLO更精準,有的擴展到了3D點云、水下目標檢測、有的則在FPGA、CPU、樹莓派上大顯身手,甚至還有的進入了語音處理識別領域。


          而幾乎所有YOLO系算法都力圖保持高精度、高效率、高實用性,這也許就是工業(yè)界偏愛YOLO的理由吧!


          YOLOv1  開山鼻祖之作


          You Only Look Once: Unified, Real-Time Object Detection

          作者:Joseph RedmonSantosh DivvalaRoss GirshickAli Farhadi

          單位:華盛頓大學;Allen Institute for AI;FAIR

          論文:https://arxiv.org/abs/1506.02640

          引用 | 10222

          主頁:https://pjreddie.com/darknet/yolo/

          時間:2015年6月8日

          標準版本的YOLO在Titan X 的 GPU 上能達到 45 FPS。更快的 Fast YOLO 檢測速度可以達到 155 FPS。



          YOLOv2


          YOLO9000: Better, Faster, Stronger

          作者:Joseph RedmonAli Farhadi

          單位:華盛頓大學;Allen Institute for AI

          論文: https://arxiv.org/abs/1612.08242

          引用 | 5168

          主頁:https://pjreddie.com/darknet/yolo/

          間:2016年12月25日

          在 YOLO 基礎上,保持原有速度的同時提升精度得到YOLOv2,讓預測變得更準確(Better),更快速(Faster)。

          通過聯(lián)合訓練策略,可實現(xiàn)9000多種物體的實時檢測,總體mAP值為19.7。



          YOLOv3


          YOLOv3: An Incremental Improvement
          作者:Joseph Redmon, Ali Farhadi
          單位:華盛頓大學
          論文:https://arxiv.org/abs/1804.02767
          引用 | 3363
          主頁:https://pjreddie.com/darknet/yolo/
          Star | 18.3K
          時間:2018年4月8日
          在320×320 YOLOv3運行22.2ms,28.2 mAP,像SSD一樣準確,但速度快三倍。在Titan X上,它在51 ms內實現(xiàn)了57.9的AP50,與RetinaNet在198 ms內的57.5 AP50相當,性能相似但速度快3.8倍。


          YOLOv4 目標檢測tricks集大成者


          YOLOv4: Optimal Speed and Accuracy of Object Detection

          作者:Alexey Bochkovskiy;Chien-Yao Wang;Hong-Yuan Mark Liao

          單位:(中國臺灣)中央研究院

          論文:https://arxiv.org/pdf/2004.10934v1.pdf

          引用 | 17

          代碼:https://github.com/AlexeyAB/darknet

          Star | 11.9K

          時間:2020年4月24

          解讀:YOLOv4來了!COCO 43.5 AP,65FPS!實現(xiàn)速度與精度的最優(yōu)平衡

          在MS COCO 數(shù)據(jù)集 實現(xiàn) 43.5% AP (65.7% AP50 ), 速度也更快了,在Tesla V100 GPU上 ~65 FPS!



          YOLOv5 


          2020年6月25日,Ultralytics發(fā)布了YOLOV5 的第一個正式版本,號稱其性能與YOLO V4不相伯仲,同樣也是現(xiàn)今最先進的目標檢測技術,并在推理速度上是目前最強。

          論文:無

          代碼:https://github.com/ultralytics/yolov5

          Star | 3.5K

          解讀:一文讀懂YOLOv5 與 YOLOv4



          Fast YOLO


          Fast YOLO: A Fast You Only Look Once System for Real-time Embedded Object Detection in Video

          作者:Mohammad Javad Shafiee, Brendan Chywl, Francis Li, Alexander Wong

          單位:滑鐵盧大學

          論文:https://arxiv.org/abs/1709.05943

          引用 | 53

          時間:2017年9月18日



              Complex-YOLO


          Complex-YOLO: An Euler-Region-Proposal for Real-time 3D Object Detection on Point Clouds

          作者:Martin Simon, Stefan Milz, Karl Amende, Horst-Michael Gross

          單位:伊爾梅瑙工業(yè)大學

          論文:https://arxiv.org/abs/1803.06199

          引用 | 65

          代碼:https://github.com/ghimiredhikura/Complex-YOLOv3(非官方)

          Star | 95(非官方)

          代碼:https://github.com/maudzung/Complex-YOLOv4-Pytorch(基于v4)

          Star | 442(基于v4)

          時間:2018年3月16日

          基于YOLOv2的一個變種,用于點云3D目標檢測。




              MV-YOLO


          MV-YOLO: Motion Vector-aided Tracking by Semantic Object Detection

          作者:Saeed Ranjbar Alvar, Ivan V. Baji?

          單位:西蒙弗雷澤大學

          論文:https://arxiv.org/abs/1805.00107

          引用 | 10

          時間:2018年4月30日


          一種結合壓縮視頻中的運動信息和YOLO目標檢測的目標跟蹤算法。



              YOLO3D


          YOLO3D: End-to-end real-time 3D Oriented Object Bounding Box Detection from LiDAR Point Cloud

          作者:Waleed Ali, Sherif Abdelkarim, Mohamed Zahran, Mahmoud Zidan, Ahmad El Sallab

          單位:Valeo AI Research, Egypt

          論文:https://arxiv.org/abs/1808.02350

          引用 | 26

          備注:ECCV 2018 Workshop

          時間:2018年8月7日


              YOLO-LITE


          YOLO-LITE: A Real-Time Object Detection Algorithm Optimized for Non-GPU Computers

          作者:Jonathan Pedoeem, Rachel Huang

          單位:佐治亞理工學院等

          論文:https://arxiv.org/abs/1811.05588

          引用 | 73

          代碼:https://reu2018dl.github.io/

          Star | 336

          時間:2018年11月14日


          YOLO-LITE 是 YOLOv2-tiny 的Web實現(xiàn),在 MS COCO 2014 和 PASCAL VOC 2007 + 2012 數(shù)據(jù)集上訓練。在 Dell XPS 13 機器上可達到 21 FPS ,VOC 數(shù)據(jù)集上達到33.57 mAP。



              Spiking-YOLO


          Spiking-YOLO: Spiking Neural Network for Energy-Efficient Object Detection

          作者:Seijoon Kim, Seongsik Park, Byunggook Na, Sungroh Yoon

          單位:首爾大學

          論文:https://arxiv.org/abs/1903.06530

          引用 | 3

          備注:AAAI 2020 

          解讀:Spiking-YOLO : 前沿!脈沖神經(jīng)網(wǎng)絡在目標檢測的首次嘗試 

          時間:2019年3月12日


          該文第一次將脈沖神經(jīng)網(wǎng)絡用于目標檢測,雖然精度不高,但相比Tiny_YOLO 耗能更少。(研究意義大于實際應用意義)



          DC-SPP-YOLO


          DC-SPP-YOLO: Dense Connection and Spatial Pyramid Pooling Based YOLO for Object Detection

          作者:Zhanchao Huang, Jianlin Wang

          單位:北京化工大學

          論文:https://arxiv.org/abs/1903.08589

          引用 | 8

          時間:2019年3月20日

          該作提出一種DC-SPP-YOLO(基于YOLO的密集連接和空間金字塔池化技術)的方法來改善YOLOv2的目標檢測精度。



          SpeechYOLO

          SpeechYOLO: Detection and Localization of Speech Objects

          作者:Yael Segal, Tzeviya Sylvia Fuchs, Joseph Keshet

          單位:巴伊蘭大學

          論文:https://arxiv.org/abs/1904.07704

          引用 | 2

          時間:2019年4月14日

          YOLO算法啟發(fā)的語音處理識別算法。

          SpeechYOLO的目標是在輸入信號中定位語句的邊界,并對其進行正確分類。受YOLO算法在圖像中進行目標檢測的啟發(fā)所提出的方法。



          Complexer-YOLO


          Complexer-YOLO: Real-Time 3D Object Detection and Tracking on Semantic Point Clouds

          作者:Martin Simon, Karl Amende, Andrea Kraus, Jens Honer, Timo S?mann, Hauke Kaulbersch, Stefan Milz, Horst Michael Gross

          單位:伊爾梅瑙工業(yè)大學等

          論文:https://arxiv.org/abs/1904.07537

          引用 | 24

          時間:2019年4月16日


          Complex-YOLO的改進版,用于實時點云3D目標檢測與跟蹤,推斷速度加速20%,訓練時間減少50%。


          SlimYOLOv3


          SlimYOLOv3: Narrower, Faster and Better for UAV Real-Time Applications

          作者:Pengyi ZhangYunxin ZhongXiaoqiong Li

          單位:北理工

          論文:https://arxiv.org/abs/1907.11093

          引用 | 18

          解讀:SlimYOLOv3:更窄、更快、更好的無人機目標檢測算法

          代碼:https://github.com/PengyiZhang/SlimYOLOv3

          Star | 953

          時間:2019年7月15日

          該文對YOLOv3的卷積層通道剪枝,大幅削減了模型的計算量(~90.8% decrease of FLOPs)和參數(shù)量( ~92.0% decline of parameter size),剪枝后的模型在基本保持原模型的檢測精度同時,運行速度約為原來的兩倍。



          REQ-YOLO


          REQ-YOLO: A Resource-Aware, Efficient Quantization Framework for Object Detection on FPGAs

          作者:Caiwen Ding, Shuo Wang, Ning Liu, Kaidi Xu, Yanzhi Wang, Yun Liang

          單位:北大;東北大學;鵬城實驗室

          論文:https://arxiv.org/abs/1909.13396

          引用 | 14

          時間:2019年9月29日

          Tiny-YOLO的 FPGA 實現(xiàn),REQ-YOLO速度可高達200~300 FPS!



          YOLO Nano


          YOLO Nano: a Highly Compact You Only Look Once Convolutional Neural Network for Object Detection

          作者:Alexander Wong, Mahmoud Famuori, Mohammad Javad Shafiee, Francis Li, Brendan Chwyl, Jonathan Chung

          單位:滑鐵盧大學;DarwinAI Corp

          論文:https://arxiv.org/abs/1910.01271

          引用 | 6

          時間:2019年10月3日

          YOLO Nano 比 Tiny YOLOv2 和 Tiny YOLOv3更小,更快,mAP更高!模型僅4.0MB。在 NVIDIA Jetson Xavier上速度竟高達26.9~48.2 FPS!



          xYOLO


          xYOLO: A Model For Real-Time Object Detection In Humanoid Soccer On Low-End Hardware

          作者:Daniel Barry, Munir Shah, Merel Keijsers, Humayun Khan, Banon Hopman

          單位:坎特伯雷大學

          論文:https://arxiv.org/abs/1910.03159

          引用 | 3

          時間:2019年10月7日

          該工作所提出的 xYOLO 是從 YOLO v3 tiny 變化而來,xYOLO比Tiny-YOLO快了70倍!在樹莓派3B上速度9.66 FPS!模型僅0.82 MB大小,這可能是速度最快模型最小的YOLO變種。



          IFQ-Tinier-YOLO


          IFQ-Net: Integrated Fixed-point Quantization Networks for Embedded Vision

          作者:Hongxing Gao, Wei Tao, Dongchao Wen, Tse-Wei Chen, Kinya Osa, Masami Kato

          單位:Canon Information Technology (Beijing) Co., LTD;Device Technology Development Headquarters, Canon Inc.

          論文:https://arxiv.org/abs/1911.08076

          引用 | 4

          時間:2019年11月19日

          該工作一部分基于YOLOv2,設計了IFQ-Tinier-YOLO人臉檢測器,它是一個定點網(wǎng)絡,比Tiny-YOLO減少了256倍的模型大?。?46k Bytes)。



          DG-YOLO

          WQT and DG-YOLO: towards domain generalization in underwater object detection

          作者:Hong LiuPinhao SongRunwei Ding

          單位:北大;鵬城實驗室

          論文:https://arxiv.org/abs/2004.06333

          時間:2020年4月14日

          該工作旨在研究水下目標檢測數(shù)據(jù),因為水下目標的數(shù)據(jù)比較少,提出了新的水質遷移的數(shù)據(jù)增廣方法和YOLO新變種:DG-YOLO ,該算法由 YOLOv3, DIM 和 IRM penalty 組成。



          Poly-YOLO


          Poly-YOLO: higher speed, more precise detection and instance segmentation for YOLOv3

          作者:Petr HurtikVojtech MolekJan HulaMarek VajglPavel VlasanekTomas Nejezchleba

          單位:奧斯特拉發(fā)大學;Varroc Lighting Systems

          論文:https://arxiv.org/abs/2005.13243

          解讀:mAP提升40%!YOLO3改進版—— Poly-YOLO:更快,更精確的檢測和實例分割

          代碼:https://gitlab.com/irafm-ai/poly-yolo

          時間:2020年5月27日

          基于YOLOv3,支持實例分割,檢測mAP提升40%!




          E-YOLO


          Expandable YOLO: 3D Object Detection from RGB-D Images

          作者:Masahiro TakahashiAlessandro MoroYonghoon JiKazunori Umeda

          單位:(日本)中央大學;RITECS Inc

          論文:https://arxiv.org/abs/2006.14837

          時間:2020年6月26日

          YOLOv3的變種,構建了一個輕量級的目標檢測器,從RGBD-D立體攝像機輸入深度和彩色圖像。該模型的處理速度為44.35fps(GPU: NVIDIA RTX 2080 and CPU: Intel Core i7 8700K)。




          PP-YOLO


          PP-YOLO: An Effective and Efficient Implementation of Object Detector

          作者:Xiang LongKaipeng DengGuanzhong WangYang ZhangQingqing DangYuan GaoHui ShenJianguo RenShumin HanErrui DingShilei Wen

          單位:百度

          論文:https://arxiv.org/abs/2007.12099

          解讀:https://zhuanlan.zhihu.com/p/163565906

          代碼:https://github.com/PaddlePaddle/PaddleDetection

          時間:2020年7月23日

          PP-YOLO由在YOLOv3上添加眾多tricks“組合式創(chuàng)新”得來,從下圖前兩列中可看到其使用的技術:


          PP-YOLO在精度和效率之間取得更好的平衡,在COCO數(shù)據(jù)集上達到45.2% mAP,并且速度72.9 FPS!,超越YOLOv4和谷歌EfficientDet,是更加實用的目標檢測算法。





          還有哪些優(yōu)秀的YOLO系算法?歡迎留言補充!



                推薦閱讀



           RNN 圖解版 
          計算機視覺頂尖期刊和會議的段子

          基于深度學習的目標檢測算法面試必備(RCNN~YOLOv5)

          超越YOLOv5,1.3M超輕量,高效易用,目標檢測領域這一個就夠了!

          在看,讓更多人看到  

          瀏覽 184
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  黑鬼巨大两根一起挤进 | 操人视频免费 | 国精品无码一区二区三区在线 | 亚洲婷婷五月综合 | 亚洲欧美一级电影 |