簡(jiǎn)單粗暴的多對(duì)象目標(biāo)跟蹤神器 – DeepSort
點(diǎn)擊上方“小白學(xué)視覺(jué)”,選擇加"星標(biāo)"或“置頂”
重磅干貨,第一時(shí)間送達(dá)
對(duì)象跟蹤問(wèn)題一直是計(jì)算機(jī)視覺(jué)的熱點(diǎn)任務(wù)之一,簡(jiǎn)單的可以分為單目標(biāo)跟蹤與多目標(biāo)跟蹤,最常見(jiàn)的目標(biāo)跟蹤算法都是基于檢測(cè)的跟蹤算法,首先發(fā)現(xiàn)然后標(biāo)記,好的跟蹤算法必須具備REID的能力。今天小編斗膽給大家推薦一個(gè)結(jié)合傳統(tǒng)算法跟深度學(xué)習(xí),特別好用的對(duì)象跟蹤算法框架DeepSort
DeepSort的核心思想主要分為兩塊,一塊可以簡(jiǎn)單稱(chēng)為Deep,另外一個(gè)可以稱(chēng)為Sort,背后的算法支持分別基于深度學(xué)習(xí)模型與卡爾曼濾波,是典型的結(jié)合深度學(xué)習(xí)與傳統(tǒng)方法的混合算法框架實(shí)現(xiàn)了比較穩(wěn)定的跟蹤效果。見(jiàn)得工作原理示意圖如下:

從輸入視頻流開(kāi)始,首先通過(guò)對(duì)象檢測(cè)算(YOLOv3)法實(shí)現(xiàn)對(duì)象檢測(cè),然后基于檢測(cè)結(jié)果標(biāo)記利用DeepSort實(shí)現(xiàn)跟蹤。
Deepsort的相關(guān)論文如下:
https://arxiv.org/abs/1703.07402Pytorch版本的代碼實(shí)現(xiàn)如下:
https://github.com/ZQPei/deep_sort_pytorch獲取代碼
git clone https://github.com/ZQPei/deep_sort_pytorch獲取代碼之后,還需要下載YOLOv3模型與Deep的t7模型,分別是
- yolov3.weights- ckpt.t7
然后運(yùn)行下面命令行
python yolov3_deepsort.py D:\images\video\TownCentreXVID.avi –display運(yùn)行結(jié)果如下:

我只能說(shuō)效果絕對(duì)靠譜!在我的1050Ti筆記本上測(cè)試通過(guò)!
交流群
歡迎加入公眾號(hào)讀者群一起和同行交流,目前有SLAM、三維視覺(jué)、傳感器、自動(dòng)駕駛、計(jì)算攝影、檢測(cè)、分割、識(shí)別、醫(yī)學(xué)影像、GAN、算法競(jìng)賽等微信群(以后會(huì)逐漸細(xì)分),請(qǐng)掃描下面微信號(hào)加群,備注:”昵稱(chēng)+學(xué)校/公司+研究方向“,例如:”張三?+?上海交大?+?視覺(jué)SLAM“。請(qǐng)按照格式備注,否則不予通過(guò)。添加成功后會(huì)根據(jù)研究方向邀請(qǐng)進(jìn)入相關(guān)微信群。請(qǐng)勿在群內(nèi)發(fā)送廣告,否則會(huì)請(qǐng)出群,謝謝理解~

