<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          多目標跟蹤:視覺聯(lián)合檢測和跟蹤

          共 16957字,需瀏覽 34分鐘

           ·

          2023-06-30 00:38

          國內頭部以自動駕駛全站技術為主線的交流學習社區(qū)(感知、歸控等),包含大量前沿論文解讀、工程實踐(源代碼)、視頻課程,熱招崗位。歡迎加入!


          點擊上方“ 邁微AI研習社 ”,選擇“ 星標★ ”公眾號

          重磅干貨,第一時間送達


          Joint detection and tracking (同時實現(xiàn)檢測和跟蹤)是Multiple Object Tracking(MOT)的一個重要研究方向。Multiple Object Tracking,多目標跟蹤, 主要包括兩個過程(Detection + ReID,Detection 是檢測出圖像或者點云中的目標框從而獲取目標的位置,而ReID是將序列中同一個目標關聯(lián)起來) ,因此一方面這涉及到時間和空間的特征學習和交互,另一方面也涉及到檢測和重識別(特征的embedding)的多任務學習,導致MOT任務。目前MOT可以分成三大類(如圖一所示):

          1. SDE(Separate Detection and Embedding), 或者稱為Tracking-by-detection, 該類的想法也非常直接,將多目標跟蹤這個任務進行拆分,先進行單幀的目標檢測得到每幀的目標框,然后再根據幀間同一目標的共性進行關聯(lián)(association),幀間的關聯(lián)的重要線索包括appearance, motion, location等,典型的代表算法包括SORT和Deep SORT。這類算法的優(yōu)點是簡單,將Detection和ReID解耦分開解決。例如上述的SORT和Deep SORT的檢測器可以不受到限制,使用SOTA的檢測方法,在目標關聯(lián)上使用卡爾曼濾波+匈牙利匹配等傳統(tǒng)方法。但是缺點也很明顯,就是解耦開無法促進多任務學習,特別受限目標關聯(lián)階段的方法而且依賴目標檢測算法,也只能處理比較簡單的場景。

          2. Two-Stage方法也可稱之為Tracking-by-detection,只不過其中的ReID變成第一階段網絡學習得到的ROI特征然后在第二階段進行embedding特征的學習,相對于第一類進步點在于 appearance特征 可由第一階段獲得,但是兩階段方法的詬病是inference比較慢,而且我覺得detection特征和embedding特征還是沒有構成多任務學習的狀態(tài)。

          3. JDE(Joint Detection and Embedding)或者是Joint detection and tracking 這類算法是在一個共享神經網絡中同時學習Detection和Embedding,使用一個多任務學習的思路共享特征學習網絡參數并設置損失函數,從而可以實現(xiàn)Detection和ReID的交互和促進,然后由于屬于一階段模型,因此在速度上是可以達到實時,所以是可以保證應用的。因此是Joint detection and tracking 這類算法我們關注的重點。

          565c6d8646f6f68334a0c3042c915010.webp

          同時為了實現(xiàn)Joint detection and tracking,需要解決如下幾個問題(也包括一些思路):

          1. 多任務學習 中如何同時輸出檢測和幀間的數據關聯(lián), 特別是數據關聯(lián)如何實現(xiàn)?損失函數如何設計?

            1. 目前看到的方案中主要分成兩大類,一種是通過motion based 例如一個head實現(xiàn)輸出目標的速度或者是目標的偏移,然后通過位置關聯(lián)實現(xiàn)(CenterTrack系列)。另外一種是appearance based 在新增加的heading中通過對比學習得到各目標在特征上的差異, 但是匹配還是通過計算相似度并且二分匹配,也不是真正意義上的Joint detection and tracking。

          2. 網絡設計上如何實現(xiàn)detection和embedding的聯(lián)合訓練?

            1. Detection和ReID模型的學習是存在不公平的過度競爭的,這種競爭制約了兩個任務(檢測任務和 ReID 任務 )的表示學習,導致了學習的混淆。具體而言,檢測任務需要的是同類的不同目標擁有相似的語義信息(類間距離最大),而ReID要求的是同類目標有不同的語義信息(類內距離最大)。

            2. 需要將對embedding分支和現(xiàn)detection分支分開,以及可以在embedding內部進行注意力機制的建模。(CSTrack里面引入自相關注意力機制和互相關權重圖)

            3. 淺層特征對于ReID任務更有幫助,深層特征對于Detection任務更有幫助。(FairMOT)

            4. Detection和Tracking模型的相互促進,如何做到Detection幫助Tracking, Tracking反哺Detection(TraDeS構建CVA和MFW分別進行匹配和特征搬移,該部分和多幀的特征學習相似,利用學習到的運動信息搬移歷史特征到當前幀,輔助當前幀的目標檢測)

            5. 在圖像里目標較大的尺度變化也對embedding的學習有很大的影響,之前embedding的學習是固定大小的proposal區(qū)域。(CSTrack里引入尺度感知注意力網絡)

          3. 如何進行多幀的學習,時間和空間的交互?

            1. 目前大部分的網絡輸入的一幀或者兩幀,學習到的數據關聯(lián)都是短時的,如何拓展到任意多幀,例如使用convGRU的方法等(可以參見Perma Track)。

            2. 如何處理遮擋?遮擋包括局部遮擋以及全部遮擋,尤其是全部遮擋,一方面需要根據多幀來將歷史的狀態(tài)進行推移,另一方面也需要處理appearance特征和motion特征的關系,并且在損失函數設計上如何處理Detection和ReID不一致的地方。

            3. 需要同時cover 住short-range matching和long-range matching, 也就是分成正常情況下的matching, 短時間的遮擋和長時間的遮擋如何對特征的利用。

            4. 對運動信息的顯示建模,例如學習特征圖的運動信息(或者場景流之類的)也是多幀融合的一種方案,同時該運動信息也是幀間目標關聯(lián)的依據。

          4. appearance, motion, location特征如何學習和使用?

            1. appearance特征對于long-range matching比較有用,但是沒法處理遮擋,可能會帶來干擾。

            2. motion和location特征沒有那么準確,特別進行l(wèi)ong-range matching, 但是在short-range matching可以發(fā)揮作用,而且在被全部遮擋的情況下可以發(fā)揮作用。

          5. anchor-based vs anchor-free

            1. 此部分其實也是屬于網絡設計的一部分,目前的Joint detection and tracking都是基于detection的框架,而detection分成anchor-based與anchor-free兩部分,目前而言,使用anchor-based的方法進行建模的包括JDE以及RetinaTrack,例如JDE進行訓練的時候一個grid分成很多個anchor, 但是分成1個track id, 這個造成遮擋的id匹配的模棱兩可,RetinaTrack是每一個anchor分配一個track id

            2. anchor free使用點攜帶所有特征進行分類或者位置回歸,如果需要學習embedding只是加上一個分支,模棱兩可更小一點,所以建議使用anchor-free方法。

            3. 通過歷史heatmap和當前heatmap構成存在置信度(SimTrack)

            4. 通過雙向匹配(QDTrack)

            5. 依照傳統(tǒng)的方法(CenterTrack系列)

          分類(部分方法)

          8500530fc673c9889c6b53a6d72df9d1.webp


          JDE: Towards Real-Time Multi-Object Tracking

          • paper: https://arxiv.org/abs/1909.12605v1

          • code: https://github.com/Zhongdao/Towards-Realtime-MOT

          JDE同時輸出了檢測框和embedding信息。后面通過卡爾曼濾波和匈牙利算法進行目標的匹配。總的來說,還是分為檢測和匹配雙階段。

          另外屬于anchor based,而且一個grid K anchors 1 reid,這是很大的缺點。

          b0fa8bbec870a596356c6408346be69b.webp


          FairMOT: On the Fairness of Detection and Re-Identification in Multiple Object Tracking

          paper: https://arxiv.org/abs/2004.01888 code: https://github.com/ifzhang/FairMOT
          • A simple baseline for one-shot multi-object tracking
          • 行人性能比較好 tracking = detection + re-id 單類別?
          • 在方法上基于anchor的方法會使ReID的方法帶來壞處 ,涉及到遮擋目標id分配問題
          • 淺層特征對于使ReID會有益處,而且需要將detection和re-id分支分開

          19cf5fd50beb6bf3f0e309f06f16a6c0.webp

          fe12b0f36ae6541063bc11533fc9a63a.webp


          特別說明的是針對3d目前主要是motion/location-based 方法,這些對于3d joint detection and tracking首先采用anchor-free框架容易嵌套到我們的框架里,另外簡單高效。特別是CenterTrack/SimTrack系列(包括CenterTrack, ByteTrack, SimTrack以及PermaTrack)。其中CenterTrack在原有anchor-free detection方法基礎上增加一個位置偏移分支用于匹配,ByteTrack在此基礎上為了增加匹配的成功率,進行級聯(lián)匹配方式,PermaTrack對遮擋問題進行建模以提高long-range tracking能力(包括輸入任意長度的幀)。從上述可以看到該框架仍然有一些改進點:1.對motion/location特征用的比較多,對于appearance特征發(fā)揮的作用滅有那么大。2.從實驗也可以看到tracker management做的不是特別好, tracker id 容易切換,應該也是因為匹配的時候多用于motion/location特征的原因,有可能是對多幀建模較弱的原因(CenterTrack輸入只有兩幀,而且inference用的歷史信息不足造成的,而且training和inference如何做到統(tǒng)一) 3. 遮擋情況下如何可以處理的更好,特征利用上一方面需要將歷史特征搬到當前幀(如何搬,顯式預測速度還是ConvGRU隱式的方式),損失函數如何設計,畢竟detection看不到reid需要。

          下文對一些方法進行簡單/詳細的說明(詳細說CenterTrack系列方法)。其中SimTrack可參見

          Exploring Simple 3D Multi-Object Tracking for Autonomous Driving論文閱讀


          CenterTrack: Tracking Objects as Points

          paper: https://arxiv.org/abs/2004.01177 code: https://github.com/xingyizhou/CenterTrack 輸入是當前幀圖片和前一幀圖片以及前一幀的heatmap(在訓練的時候是由真值產生, 當然為了模擬測試的情況也加入一些噪聲, 在測試的時候由檢測框渲染生成)。預測當前幀的檢測結果,然后使用當前幀的檢測結果以及當前幀到上一幀的偏移。在預測的時候通過該偏移將目標中心點引入到上一幀和上一幀進行關聯(lián)(使用貪婪匹配算法)

          be1f5173d073a89a04675bca21b8febb.webp

          • 跟蹤條件檢測(Tracking-conditioned detection)利用多輸入上一幀以及輸入上一幀渲染出的heatmap來作為歷史信息的輸入

          • 時間關聯(lián)( Association through offsets)通過多輸出偏移來進行目標ID的匹配

          數據增強方法:真值生成heatmap增加噪聲(數量不定的missing tracklets、錯誤定位的目標以及還可能有誤檢的目標存在),在輸入的兩幀上時間間隔不一定是連續(xù)的,從而規(guī)避掉模型對視頻幀率的敏感性。(比較重要)

          缺點:都是兩幀的匹配,如果出現(xiàn)遮擋或者離開檢測區(qū)域則可能會引起ID的切換和跳變,沒有考慮如何在時間上有較大間隔的對象重新建立聯(lián)系。此問題也是需要面對的問題。


          ByteTrack: Multi-Object Tracking by Associating Every Detection Box

          • paper: https://arxiv.org/abs/2110.06864
          • code: https://github.com/ifzhang/ByteTrack
          從檢測任務對接到跟蹤任務時, 采用閾值過濾掉檢測網絡輸出的邊界框, 使得檢測信息出現(xiàn)丟失,造成跟蹤過程出現(xiàn)中斷的情況,使得跟蹤任務對檢測任務的要求過高。對于出現(xiàn)的漏檢以及軌跡中斷的情況,作者分析原因為在將檢測的目標框進行數據關聯(lián)時設置了較高的閾值,導致一些低置信度的目標信息出現(xiàn)不可逆的丟失。為了避免低置信度邊界框信息的丟失, 需要額外地解決低置信度帶來的誤檢問題,通過引入二次關聯(lián) ,將能夠同tracklets匹配上的low confidence boxes加入到tracklets中,無法匹配的boxes看成是背景,也就是誤檢。 傳統(tǒng)的long-range association是將丟失的軌跡維持一段時間(30次),如果一直沒被匹配則認為是確實丟失了。新出現(xiàn)的目標是連續(xù)兩幀都同時出現(xiàn)才認為是都出現(xiàn)了。 第一次關聯(lián)時可以使用位置信息和appearance信息,第二次關聯(lián)時只使用位置信息,因為目標可能被遮擋等造成appearance信息不準確。 location,motion以及appearance是association的有用線索,SORT中使用location和motion來進行關聯(lián),相似性的計算主要是考慮到bounding boxes檢測框和tracklets預測框之間的IoU。現(xiàn)在的一些做法是通過網絡來學習object motions。在short-range matching中l(wèi)ocation和motion是比較準確的 而appearance在long-range matching中則比較有幫助 ,長時間遮擋時依舊能夠通過appearance來對對象進行Re-ID。 缺點是如果長時間沒有出現(xiàn)也會出現(xiàn)跟蹤目標切換ID的情況

          fdda1f599372a12feb972e17dbf8b7ab.webp


          Perma Track: Learning to Track with Object Permanence

          • paper: https://arxiv.org/abs/2103.14258
          • code: https://github.com/TRI-ML/permatrack
          在CenterTrack框架上,輸入pairs of frame,同時擴展到任意長度的視頻中從而可以利用歷史的信息。此外增加了一個 spatio-temporal recurrent memory module 來對 完全遮擋的目標進行預測(完全遮擋的目標如何監(jiān)督是本文需要考慮的另外一個點),保持trajectory的連貫性 ,從而提升模型的檢測性能能夠利用之前歷史推理當前幀目標的位置以及identity。對于如何訓練這個模型,首先構建了一個大規(guī)模的合成數據集( 為不可見目標提供了標注 ),并提出了在遮擋情況下監(jiān)督tracking的幾種方式。最后在合成和真實數據上聯(lián)合訓練。 基于object permanence的假設,目標一旦被發(fā)現(xiàn)說明是物理存在的 創(chuàng)新點在于
          • 端到端和joint object detection and tracking that operates on videos of arbitrary length。
          ? 使用spatio-temporal recurrent memory module convGRU
          • 怎么對不可見的目標的軌跡通過在線的方式進行學習。
          ? ?學習一個heatmap表示這個目標是不是可見或者是被遮擋的, 對遮擋情況進行可視化等級劃分
          • 怎么彌補合成數據和真實數據之間的gap
            • 合成數據與真實數據的差異性?
            • 通過同時訓練合成數據(Parallel Domain(PD) simulation platform產生)和真實數據,然后將不可見數據只在合成數據上訓練發(fā)現(xiàn)可以提高模型的性能。

          19ade57bbdf84544e65d7da67a690c1f.webp


          其他一些經典的Track方法

          RetinaTrack: Online Single Stage Joint Detection and Tracking

          paper: https://arxiv.org/abs/2003.13870 code: 和上述方式, 在RetinaTrack的基礎上,將embedding分支和detection分支分開并且采用anchor-based的方式,每一個anchor都有對應的embedding特征(方便處理遮擋)。 embedding使用采樣三組對比樣本的批處理策略的三元組損失, 只監(jiān)督和gt匹配的上的?

          3c072e9e42752f5c12ac37de7c1f009d.webp

          b62f49d6031804dbcdfa940748fd533e.webp


          QDTrack:Quasi-Dense Similarity Learning for Multiple Object Tracking

          • paper: https://arxiv.org/abs/2006.06664

          • code: https://github.com/SysCV/qdtrack

          • 現(xiàn)有的多目標跟蹤方法僅將稀疏地面真值匹配作為訓練目標, 而忽略了圖像上的大部分信息區(qū)域 。在本文中提出了準稠密相似性學習,它對一對圖像上的數百個區(qū)域建議進行稠密采樣以進行對比學習。作者提出的QDTrack密集匹配一對圖片上的上百個感興趣區(qū)域,通過對比損失進行學習參數,密集采樣會覆蓋圖片上大多數的信息區(qū)域。通過對比學習,一個樣本會被訓練同時區(qū)分所有的Proposal,相較于只使用真值標簽來訓練監(jiān)督,更加的強大且增強了實例的相似度學習。對于消失軌跡的處理,會將背景作為一類,從而進行雙向softmax增強一致性。

          • 當前幀和上一幀的雙向匹配可以實現(xiàn)軌跡的管理。

          • 擬密集匹配其他算法不是這樣做的?

          9fe2334b194d60c858c7c817a89fc760.webp

          143d177c106f81fdcff62c414addf089.webp

          8bb725add4acdc543c20e98b219a698a.webp

          其中保留低置信度的目標?


          TraDeS:Track to Detect and Segment: An Online Multi-Object Tracker

          • paper: https://arxiv.org/abs/2103.08808

          • code: https://github.com/JialianW/TraDeS

          • TraDeS通過cost volume來推斷目標跟蹤偏移量,該cost volume用于傳播前幀的目標特征,以改善當前目標的檢測和分割,其實可以理解為一個關聯(lián)代價矩陣,主要由關聯(lián)模塊(CVA)和一個運動指導的特征變換模塊(MFW)構成。CVA模塊通過backbone提取逐點的ReID embedding特征來構建一個cost volume,這個cost volume存儲兩幀之間的embedding對之間的匹配相似度。繼而,模型可以根據cost volume推斷跟蹤偏移(tracking offset),即所有點的時空位移,也就得到了兩幀間潛在的目標中心。跟蹤偏移和embedding一起被用來構建一個簡單的兩輪長程數據關聯(lián)。之后,MFW模塊以跟蹤偏移作為運動線索來將目標的特征從前幀傳到當前幀。最后,對前幀傳來的特征和當前幀的特征進行聚合進行當前幀的檢測和分割任務。

          133f900e8d684607f204ef490cd8de51.webp

          558f5bd2e8d534a8448a012809654c5d.webp



          CSTrack:Rethinking the competition between detection and ReID in Multi-Object Tracking

          paper: https://arxiv.org/abs/2010.12138 code: https://github.com/JudasDie/SOTS 論文提出了一種新的互相關網絡(CCN)來改進單階段跟蹤框架下 detection 和 ReID 任務之間的協(xié)作學習。作者首先將 detection 和 ReID 解耦為兩個分支,分別學習。然后兩個任務的特征通過自注意力方式獲得自注意力權重圖和互相關性權重圖。自注意力圖是促進各自任務的學習,互相關圖是為了提高兩個任務的協(xié)同學習。而且,為了解決上述的尺度問題,設計了尺度感知注意力網絡(SAAN)用于 ReID 特征的進一步優(yōu)化,SAAN 使用了空間和通道注意力,該網絡能夠獲得目標 不同尺度的外觀信息,最后 不同尺度外觀特征融合輸出即可。

          df40fcc55810527dfba1f855ce84e544.webp

          2e38f51ee4b26d00d8a21ce4b979ef6d.webp

          1cecc3b487bc4023f1613468cbbbe5c8.webp


          Immortal Tracker

          paper: https://arxiv.org/abs/2111.13672 code: https://github.com/ImmortalTracker/ImmortalTracker 目前過早的軌跡終止是目標ID切換的主要原因,因此本方法使用簡單的軌跡預測希望保留長時間的軌跡,軌跡預測方法就是簡單的卡爾曼濾波 實現(xiàn)predict-to-track范式, 在匹配(3D IOU or 3D GIOU)的時候如果當前檢測結果和預測可以匹配的上則更新軌跡,如果沒有匹配的上則更新預測值。 思考:正常的跟蹤不都是這個流程嗎?

          ffe137343b3e59d112c01cb287e47d85.webp


          HorizonMOT:1st Place Solutions for Waymo Open Dataset Challenges -- 2D and 3D Tracking

          • paper: https://arxiv.org/abs/2006.15506
          • 運動模型
          借鑒了DeepSort算法,使用了Kalman Filter算法,在3D跟蹤中設定的狀態(tài)變量為3D坐標、長寬高和位置的速度變化量。
          • 表觀模型
          表觀模型的引入主要是 為了防止擁擠和軌跡暫時丟失 的問題,行人輸入為128x64,車輛輸入為128x128,經過11個3x3卷積和3個1x1卷積以及一些pooling層得到512維向量。
          • 數據關聯(lián)(級聯(lián)匹配)
          數據關聯(lián)的基礎算法是匈牙利算法,這里作者將 關聯(lián)過程分成了三個階段 ,與此同時將檢測結果按照置信度分成了兩份,一份置信度大于t(s),一份介于t(s)/2和t(s)之間。 第一階段的數據關聯(lián)跟DeepSort一樣,采用級聯(lián)匹配的方式,對跟蹤框和第一份檢測結果進行匹配,也就是先匹配持續(xù)跟蹤的目標,對于暫時丟失的目標降低優(yōu)先級; 第二階段的數據關聯(lián)會對第一階段中尚未匹配的跟蹤軌跡(丟失時間小于3)和剩余的第一份檢測結果進行匹配,當然也會降低一些匹配閾值 第三階段的數據關聯(lián)會對第二階段尚未匹配的跟蹤軌跡和第二份檢測結果進行匹配,同樣降低閾值標準。

          Probabilistic 3D Multi-Object Tracking for Autonomous Driving

          paper: https://arxiv.org/abs/2012.13755 code: https://github.com/eddyhkchiu/mahalanobis_3d_multi_object_tracking 使用馬氏距離而不是3D IOU可以防止小目標(行人等)無法匹配 卡爾曼濾波參數使用訓練集的統(tǒng)計值 使用貪心算法進行匹配而不是匈牙利算法

          Score refinement for confidence-based 3D multi-object tracking

          paper: https://arxiv.org/abs/2107.04327 code: https://github.com/cogsys-tuebingen/CBMOT 處理軌跡得分更新的問題,如果軌跡和當前檢測結果匹配上了則該軌跡認為是比之前的軌跡得分和檢測結果得分都大,如果沒有匹配上則認為軌跡得分需要處于衰減狀態(tài)。然后基于此設計一系列的函數來更新軌跡得分,創(chuàng)新點比較一般。但是在很多榜單上排名很高,是個有用的trick。

          55775378600171c16d3441b8778e63bf.webp

          b9edfd0e094d246bdb2a12259bde783c.webp


          SiamMOT:Siamese Multi-Object Tracking

          paper: https://arxiv.org/abs/2105.11595 code: https://github.com/amazon-research/siam-mot 孿生跟蹤器根據其在一個局部窗口范圍內搜索對應的實例, 然后獲得當前幀和歷史幀的特征

          edda2aa13b1478c33ed7380381d3a6e8.webp

          包括兩種運動建模方式:1.將特征按通道連接在一起然后送入MLP中預測可見置信度和相對位置和尺度偏移;2.顯式運動模型通過逐通道的互相關操作來生成像素級別的響應圖 該方法是在Faster RCNN上進行改進的,而且是anchor-based, 參考意義有限,但是對于運動的建模以及根據特征判斷遮擋與上述 Perma Track x想法相似,可以參考。

          982d5fe9827ff514358db1deb6f5beeb.webp

          9116037652a9dcdb5be7a86fe3cdbefa.webp


          TransTrack: Multiple Object Tracking with Transformer

          paper: https://arxiv.org/abs/2003.13870 code: https://github.com/PeizeSun/TransTrack 利用transfomer實現(xiàn)跟蹤,類似于centerTrack,利用兩個key-query學習檢測和到上一幀的偏移

          cef210d74546881453e697e5f87e57bf.webp

          Reference:

          1. https://github.com/luanshiyinyang/awesome-multiple-object-tracking

          2. https://github.com/JudasDie/SOTS

          3. CenterTrack https://github.com/xingyizhou/CenterTrack

          4. ByteTrack https://github.com/ifzhang/ByteTrack

          5. Perma Track https://github.com/TRI-ML/permatrack

          6. https://github.com/DanceTrack/DanceTrack 提出一個數據集

          7. https://github.com/ImmortalTracker/ImmortalTracker 用處不是特別大 感覺有點水

          8. https://github.com/eddyhkchiu/mahalanobis_3d_multi_object_tracking

          9. https://github.com/TuSimple/SimpleTrack 信息量不大

          10. Score refinement for confidence-based 3D multi-object tracking https://github.com/cogsys-tuebingen/CBMOT

          11. CenterTrack3D: Improved CenterTrack More Suitable for Three-Dimensional Objects

          12. FairMOT https://github.com/ifzhang/FairMOT

          13. HorizonMOT 地平線參加比賽的方案 https://arxiv.org/abs/2006.15506

          14. PTTR: Relational 3D Point Cloud Object Tracking with Transformer https://github.com/Jasonkks/PTTR 單一目標跟蹤器

          15. 3D Siamese Voxel-to-BEV Tracker for Sparse Point Clouds https://github.com/fpthink/V2B 單一目標跟蹤器

          16. 3D Object Tracking with Transformer https://github.com/3bobo/lttr 單一目標跟蹤器

          17. 3D-FCT: Simultaneous 3D Object Detection and Tracking Using Feature Correlation 針對PVRCNN的改進

          18. Probabilistic 3D Multi-Modal, Multi-Object Tracking for Autonomous Driving 多傳感器融合

          19. https://github.com/wangxiyang2022/DeepFusionMOT 多傳感器融合

          20. Learnable Online Graph Representations for 3D Multi-Object Tracking graph-based

          21. Neural Enhanced Belief Propagation on Factor Graphs graph-based

          22. TransTrack: Multiple Object Tracking with Transformer https://github.com/PeizeSun/TransTrack

          23. TrackFormer https://github.com/timmeinhardt/trackformer

          24. https://jialianwu.com/projects/TraDeS.html with分割

          25. http://www.cvlibs.net/datasets/kitti/eval_tracking.php


          更多細節(jié)可參考論文原文 更多精彩內容請關注邁微AI研習社,每天晚上七點不見不散!


          fceaea57870f13e4c66a09c5fadbb7de.webp

          e8f437b93e7d3fad6bd1e49cf0baf4ba.webp


          專欄訂閱:https://blog.csdn.net/charmve/category_10595130.html



          推薦閱讀

          (更多“自動駕駛感知”最新成果)

          邁微AI研習社

          微信號: MaiweiE_com

          GitHub:?@Charmve

          CSDN、知乎: @Charmve

          投稿: [email protected]

          主頁: github.com/Charmve

          國內頭部以自動駕駛全站技術為主線的交流學習社區(qū)(感知、歸控等),包含大量前沿論文解讀、工程實踐(源代碼)、視頻課程,熱招崗位。歡迎加入

          如果覺得有用,就請點贊、轉發(fā)吧!

          瀏覽 45
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  俺来也俺也啪www色 | 欧美淫秽视频免费看 | 成人自拍视频在线 | 苍井空一区二区在线观看 | 综合日逼网 |