<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          單目標(biāo)跟蹤小綜述

          共 8577字,需瀏覽 18分鐘

           ·

          2021-08-10 18:43

          點(diǎn)擊上方小白學(xué)視覺(jué)”,選擇加"星標(biāo)"或“置頂

          重磅干貨,第一時(shí)間送達(dá)


          最近看了幾篇關(guān)于單目標(biāo)跟蹤的paper,為了方便自己梳理脈絡(luò)同時(shí)和大家交流討論,將一些重要的paper整理在這。

            首先用一張圖羅列下本文涉及到的paper:


          一. 關(guān)于單目標(biāo)跟蹤


          本人不了解傳統(tǒng)的相關(guān)濾波法,所有想法總結(jié)僅僅建立在深度學(xué)習(xí)的基礎(chǔ)上。對(duì)于單目標(biāo)跟蹤而言一般的解釋都是在第一幀給出待跟蹤的目標(biāo),在后續(xù)幀中,tracker能夠自動(dòng)找到目標(biāo)并用bbox標(biāo)出。關(guān)于SOT(single object track),有兩條思路。第一種,我們可以把跟蹤粗暴地當(dāng)做一個(gè)配對(duì)問(wèn)題,即把第一幀的目標(biāo)當(dāng)做模板,去匹配其他幀。基于這種思路,網(wǎng)絡(luò)并不需要“理解”目標(biāo),只需當(dāng)新的一幀圖像來(lái)到時(shí),拿著模板“連連看”找相同就可;siam系列實(shí)質(zhì)上就是這個(gè)思路,每次兩個(gè)輸入,模板和新圖片,然后通過(guò)網(wǎng)絡(luò)在新圖片上找和模板最相似的東西,所以這條思路的關(guān)鍵在于如何配得準(zhǔn)。另一種思路是通過(guò)第一幀給出的目標(biāo)“理解”目標(biāo),在后續(xù)幀中,不需要再輸入模板,即只有一個(gè)輸入,網(wǎng)絡(luò)可以根據(jù)自己理解的模板,在新圖片中預(yù)測(cè)出目標(biāo),所以這條思路的關(guān)鍵在于如何讓網(wǎng)路僅僅看一眼目標(biāo)(第一幀)就能向目標(biāo)檢測(cè)那樣,“理解”目標(biāo),這就涉及到單樣本學(xué)習(xí)問(wèn)題,也是檢測(cè)和跟蹤的gap。


          二. SiamFC


          目前基于siamese系列的網(wǎng)絡(luò)已經(jīng)占據(jù)了單目標(biāo)跟蹤大半壁江山。這一切都源于2016年siamFC的提出,siamfc實(shí)際上就是將跟蹤當(dāng)做匹配問(wèn)題,下面具體介紹siamfc。

            首先簡(jiǎn)單介紹下siamfc的網(wǎng)絡(luò)框架,圖中z是模板(即待跟蹤的目標(biāo)),x是當(dāng)前幀的圖像,  是用于提取圖像特征的卷積網(wǎng)絡(luò),因?yàn)樽饔糜冢?srch_img)的與作用于z(template)的完全一樣所以稱為孿生網(wǎng)絡(luò)(siamese),經(jīng)過(guò)卷積網(wǎng)絡(luò)提取特征后分別得到x和z的feature map,然后將二者卷積(  表示卷積),即將6×6×128的feature map當(dāng)做卷積核,在22×22×128上進(jìn)行卷積得到17×17×1的heatmap,heatmap上值最大的點(diǎn)就對(duì)應(yīng)于x圖像中目標(biāo)的中心。

            下面說(shuō)一些細(xì)節(jié),首先網(wǎng)絡(luò)是5層不帶padding的AlexNet。顯然5層不符合深度學(xué)習(xí)“深”的理念,但是由于網(wǎng)絡(luò)不能加padding所以限制了網(wǎng)絡(luò)深度,為什么不能padding呢,事實(shí)上target在x上的位置,我們是從heatmap得到,這是基于卷積的平移等變性,即target在x上平移了n,相應(yīng)的就會(huì)在heatmap上平移n/stride,且值不會(huì)變。但如果加入了padding,對(duì)于圖像邊緣的像素,雖然也會(huì)平移,但值會(huì)變,因?yàn)閜adding對(duì)圖像的邊緣進(jìn)行了改變。siamRPN++和siamDW解決了這個(gè)問(wèn)題,后面會(huì)詳細(xì)講。然后是訓(xùn)練時(shí),x和z的獲取方式:z是以第一幀的bbox的中心為中心裁剪出一塊圖像,再將這塊圖像縮放到127×127,255×255的srchimg也是類似得到的。

          這里有幾個(gè)細(xì)節(jié)需要注意,
          第一,template與srch_img的中心就是目標(biāo)的中心,且template是裁剪過(guò)的,如果不裁剪那么template中背景過(guò)多,導(dǎo)致匹配失敗。不過(guò)在siamfc中背景信息完全被丟棄,換句話說(shuō),siamfc對(duì)缺乏對(duì)背景的利用,也導(dǎo)致模型的判別性不足,后續(xù)有相關(guān)工作對(duì)此進(jìn)行改進(jìn)。
          第二,訓(xùn)練階段的標(biāo)簽怎么得到呢,如果只是簡(jiǎn)單將目標(biāo)所在位置標(biāo)為1,其他位置標(biāo)為0,就會(huì)產(chǎn)生嚴(yán)重的樣本不均衡問(wèn)題,于是作者將離目標(biāo)中心點(diǎn)r半徑內(nèi)的label都設(shè)置為1,其他設(shè)為0,loss function為  ,y為預(yù)測(cè)值,v為標(biāo)簽值,這里關(guān)于label的設(shè)置也有一些可以優(yōu)化的點(diǎn),使用focal loss是否對(duì)模型的判別性是否會(huì)更高呢。
          第三,在測(cè)試時(shí),siamfc的template是不更新的,即一直為第一幀,這就導(dǎo)致模型的魯棒性不佳,例如隨著時(shí)間的變化template出現(xiàn)遮擋、模糊等情況,但是如果更新策略不佳又會(huì)引入模板污染、過(guò)擬合等問(wèn)題,在這方面也有相關(guān)工作討論。在測(cè)試時(shí),首先搜索區(qū)域不是整個(gè)srchimg而只是之前的四倍大小的搜索區(qū)域,其次在feature map上加了余弦窗,最后為了解決尺度問(wèn)題,對(duì)srch_img進(jìn)行縮放了3種尺度。
          三. Siam系列


          1. SiamRPN

            SiamRPN是CASIA在2018提出來(lái)的網(wǎng)絡(luò),它將siam與檢測(cè)領(lǐng)域的RPN進(jìn)行結(jié)合。關(guān)于RPN(faster RCNN)可以參看faster RCNN,這篇帖子寫(xiě)得非常好。在檢測(cè)領(lǐng)域RPN本意是用作檢測(cè),它將feature map上的各個(gè)點(diǎn)當(dāng)做錨點(diǎn),并映射到映射到輸入圖片上,再在每個(gè)錨點(diǎn)周圍取9個(gè)尺度不同的錨框,對(duì)每個(gè)錨框進(jìn)行檢測(cè)是否有物體以及位置回歸。

            siamRPN的網(wǎng)絡(luò)框架見(jiàn)上圖,這里可以從one-shot的思路理解sianRPN,我們把template分支的embedding當(dāng)作卷積核,srch_img分支當(dāng)作feature map,在template與srchimg卷積之前,先將卷積核(即template得到的feature map)通過(guò)1*1卷積升維到原來(lái)的2k(用于cls)和4k(用于位置的reg)倍。然后拉出分類與位置回歸兩個(gè)分支。(建議沒(méi)看多RPN的朋友看下上面推薦的那篇講faster rcnn的帖子,看完這里就自然懂了)。這里的anchor到底是什么呢,根據(jù)筆者粗淺的理解,siamfc相當(dāng)于直接將template與srching直接卷積匹配,而siamRPN在template上引入k個(gè)anchor相當(dāng)于選取了k個(gè)尺度與srch_img進(jìn)行匹配,解決了尺度問(wèn)題。(筆者對(duì)anchor的理解還不夠深入,后面深入研究下再寫(xiě)一篇文章專門(mén)探討anchor的本質(zhì)及其優(yōu)缺點(diǎn))

            siamRPN無(wú)論是在A還是R上都優(yōu)于siamfc(這里補(bǔ)充一下,對(duì)于跟蹤而言主要有兩個(gè)子指標(biāo)A(accuracy)與R(robust), A主要是跟蹤的位置要準(zhǔn),R主要是模型的判別性要高,即能夠準(zhǔn)確識(shí)別哪些是目標(biāo),從而判斷出目標(biāo)的大致位置。關(guān)于R與A可參見(jiàn)VOT評(píng)價(jià)指標(biāo)),也就是說(shuō)siamrpn的模型判別性與準(zhǔn)確性都比siamfc好,結(jié)果見(jiàn)下圖。

            筆者認(rèn)為,準(zhǔn)確性的提升主要來(lái)自與siamrpn將位置回歸單獨(dú)拉出來(lái)作為一個(gè)分支,這一點(diǎn)在后續(xù)的siamfc++中也可以看到作者相關(guān)的論述。在模型判別性方面,筆者認(rèn)為,提升的關(guān)鍵在于siamrpn在進(jìn)行匹配(即template與srchimg卷積的過(guò)程)時(shí),由于引入了k個(gè)anchors,相當(dāng)于從k個(gè)尺度對(duì)template與srch_img進(jìn)行更加細(xì)粒度的匹配,效果更好也是情理之中。另外很重要的一點(diǎn)就是sianrpn解決了尺度問(wèn)題。

          2. DaSiamRPN

            關(guān)于這篇文章,筆者之前在github上做過(guò)一些筆記,這里就簡(jiǎn)單摘錄一些,具體筆記見(jiàn)DaSiamRPN。

            DasiamRPN并沒(méi)有對(duì)siamfc的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行過(guò)多的改進(jìn),而是從訓(xùn)練數(shù)據(jù),模板更新,搜索區(qū)域三個(gè)角度對(duì)模型的rubost進(jìn)行了提升。使得SiamRPN網(wǎng)絡(luò)能夠適應(yīng)長(zhǎng)期跟蹤。

            首先作者對(duì)siamrpn的缺點(diǎn)進(jìn)行了分析,主要有三點(diǎn):

          • 在訓(xùn)練階段,存在樣本不均衡問(wèn)題。即大部分樣本都是沒(méi)有語(yǔ)義的背景(注:背景不是非target的物體,而是指那些既不屬于target,也不屬于干擾物,沒(méi)有語(yǔ)義的圖像塊,例如大片白色。)這就導(dǎo)致了網(wǎng)絡(luò)學(xué)到的僅僅是對(duì)于背景與前景的區(qū)分,即在圖像中提取出物體,但我們希望網(wǎng)絡(luò)還能夠識(shí)別target與非target物體。作者從數(shù)據(jù)增強(qiáng)的角度解決此問(wèn)題。

          • 模型判別性不足,缺乏模板的更新,即在heatmap中很多非target的物體得分也很高;甚至當(dāng)圖像中沒(méi)有目標(biāo)時(shí),依然會(huì)有很高的得分存在。作者認(rèn)為與target相似的物體對(duì)于增強(qiáng)模型的判別性有幫助,因此提出了distractor-aware module對(duì)干擾(得分很高的框)進(jìn)行學(xué)習(xí),更新模板,從而提高siam判別性。但是排名靠前的都是與target很相似的物體,也就是說(shuō)該更新只利用到了target的信息,沒(méi)有利用到背景信息。

          • 由于第二個(gè)缺陷,原始的siam以及siamRPN使用了余弦窗,因此當(dāng)目標(biāo)丟失,然后從另一個(gè)位置出現(xiàn),此時(shí)siam不能重新識(shí)別target, (siamRPN的搜索區(qū)域是上一陣的中心加上預(yù)設(shè)的搜索區(qū)域大小形成的搜索框),該缺陷導(dǎo)致siam無(wú)法適應(yīng)長(zhǎng)時(shí)間跟蹤的問(wèn)題。對(duì)此作者提出了local-to-global的搜索策略,其實(shí)就是隨著目標(biāo)消失幀數(shù)的增加,搜索區(qū)域逐漸擴(kuò)大。

            針對(duì)這三個(gè)問(wèn)題,作者給出了相應(yīng)的解決方案。首先對(duì)于數(shù)據(jù)問(wèn)題,當(dāng)然是使用數(shù)據(jù)增強(qiáng),主要方法有:增加訓(xùn)練集中物體的類別;訓(xùn)練時(shí)使用來(lái)自同一類別的負(fù)樣本,以及來(lái)自不同類別的正樣本輔助訓(xùn)練;增加圖像的運(yùn)動(dòng)模糊。關(guān)于template的更新問(wèn)題,作者對(duì)heatmap得到目標(biāo)先NMS去除一些冗余框,然后將相似度靠前的框(干擾物)拿出來(lái),讓網(wǎng)絡(luò)對(duì)其學(xué)習(xí),拉大target_embedding與這些干擾物之間的相似度。這樣的優(yōu)點(diǎn)在于既綜合了當(dāng)前幀的信息,同時(shí)因NMS靠前的都與目標(biāo)很相似,這就抑制了模板污染問(wèn)題。

          3. siamMask

            關(guān)于siamMask,先放一張效果圖,就可以知道他做的是什么工作。

            簡(jiǎn)單來(lái)說(shuō)siamMask就是將跟蹤與分割結(jié)合到了一起,從其結(jié)果上,相比與之前的視頻分割工作,其提升了速度,相比與之前的DasaimRPN其提升了A與R.

          這里不對(duì)分割進(jìn)行探討,僅從跟蹤的角度來(lái)看,筆者認(rèn)為saimMask的提升相比與siamRPN主要來(lái)源與多任務(wù)學(xué)習(xí)(即更加精細(xì)的像素級(jí)的數(shù)據(jù)集與學(xué)習(xí)任務(wù))。

            上圖是siamMask的網(wǎng)絡(luò)框架,從中我們也可以看出,就網(wǎng)絡(luò)本身而言,siamMask只是比siamRPN多了一個(gè)(分割)分支,即多了一個(gè)學(xué)習(xí)任務(wù)。

          4. siamRPN++

            siamRPN++可以說(shuō)是將siam系列網(wǎng)絡(luò)又推向一個(gè)高峰,它解決的是如何將siam網(wǎng)絡(luò)加深的問(wèn)題。筆者在寫(xiě)siamfc那部分時(shí)提到,siamfc中的backbone使用的是只有5層的AlexNet,且不含padding, 其實(shí)在siamrpn的backbone也很淺。這是因?yàn)榫W(wǎng)絡(luò)不能加padding, 不能加padding,那么隨著網(wǎng)絡(luò)深度的增加,feature map就會(huì)越來(lái)越小,特征丟失過(guò)多。而加padding則會(huì)破壞卷積的平移等變性。在siamrpn++中,作者是從實(shí)驗(yàn)效果的角度對(duì)padding進(jìn)行探究。作者認(rèn)為padding會(huì)給網(wǎng)絡(luò)帶來(lái)空間上的偏見(jiàn)。具體來(lái)說(shuō),padding就是在圖片邊緣加上黑邊,但是黑邊肯定不是我們的目標(biāo),而黑邊總是在邊緣,那么對(duì)于神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō),它就會(huì)認(rèn)為邊緣都不是目標(biāo),即離邊緣越遠(yuǎn)的越可能是目標(biāo)。這就導(dǎo)致了神經(jīng)網(wǎng)絡(luò)總是習(xí)慣認(rèn)為圖像中心的是目標(biāo),而忽視目標(biāo)本身的特征,而siamfc的訓(xùn)練方法target也確實(shí)是在圖片中央。(這里需要指明的是,在siamfc的訓(xùn)練過(guò)程中,總是讓template與srch_img處于圖片的中央,作者在siamfc中說(shuō)因?yàn)樗麄兪褂昧巳矸e的結(jié)構(gòu),所以在siamfc中不會(huì)有空間上的bias,顯然這里的結(jié)果和siamrpn++的結(jié)果有矛盾,這也是筆者在寫(xiě)這篇貼子時(shí)想到的,siamfc到底有沒(méi)有空間的bias還有待筆者代碼測(cè)試,也歡迎評(píng)論區(qū)小伙伴討論。)

            回到siamrpn++上來(lái),有了上面的分析,解決辦法自然也就有了,既然網(wǎng)絡(luò)總是習(xí)慣認(rèn)為中心是目標(biāo),那讓target不要總是在圖片中央不就好了,于是siamrpn++最大的貢獻(xiàn)就產(chǎn)生了,在訓(xùn)練時(shí)讓目標(biāo)相對(duì)于中心偏移幾個(gè)像素,論文中實(shí)驗(yàn)表明偏移64個(gè)像素最佳.

          關(guān)于網(wǎng)絡(luò)結(jié)構(gòu)方面,siamrpn++也在siamrpn的基礎(chǔ)上做了一些改進(jìn),見(jiàn)上圖,首先當(dāng)然是加深backbone,論文中使用了resNet50。此外在核相關(guān)環(huán)節(jié),siamrpn是直接將template與srch_img的經(jīng)過(guò)backbone后的embedding都先升維至原來(lái)的2k倍和4k倍,這樣做的缺點(diǎn)是參數(shù)量的不平衡,即在核相關(guān)環(huán)節(jié)的參數(shù)量是其余環(huán)節(jié)的4倍,這為訓(xùn)練增加了難度(為什么增加了難度?)。這種參數(shù)量的不平衡主要來(lái)自與核相關(guān)的卷積操作,因此siamrpn++使用depthwise cross correlation的卷積方式,用下面這張網(wǎng)上截來(lái)的圖來(lái)說(shuō)明這種操作。
          除此之外,siamrpn++還綜合了更多的特征,見(jiàn)網(wǎng)絡(luò)框架圖。這中融合使得網(wǎng)絡(luò)學(xué)會(huì)更多的圖像特征,在最近的siamCAR中也使用了類似的方法,分刷得很高,看來(lái)特征融合確實(shí)是提分利器。
          最后放下siamrpn++的測(cè)試結(jié)果,
          不得不承認(rèn),siamrpn++的EAO(綜合了A和R的指標(biāo))還真是高得驚人,不過(guò)仔細(xì)看A與R可以發(fā)現(xiàn),siamrpn++的Accuracy非常出眾,但robustness提升空間還很大,也就是說(shuō),網(wǎng)絡(luò)的判別性并沒(méi)有那么驚艷,但是講道理網(wǎng)絡(luò)深度加深而且還有特征融合的助力,最受益的應(yīng)該就是R,這其中原因還有待筆者跑跑代碼再做評(píng)論(盲猜是不是模板未更新的緣故,然而加入了模板更新的Dasiamrpn的R值更高)。

          5. siamDW

          與siamrpn++一樣siamDW也是解決siam系列網(wǎng)絡(luò)深度的問(wèn)題,兩篇都同為CVPR2019的oral。
          siamDW認(rèn)為siam系列網(wǎng)絡(luò)不能加深原因有二:第一,隨著網(wǎng)絡(luò)深度的增加,網(wǎng)絡(luò)的感受野增加,從而減少了網(wǎng)絡(luò)的判別性與回歸的準(zhǔn)確度;第二,padding會(huì)引入spatial bias,因?yàn)槿绻褂胮adding的話,對(duì)于卷積核(template)來(lái)說(shuō)是一定帶來(lái)說(shuō)是一定帶padding,而對(duì)于search image中間部分是沒(méi)有padding的,只有邊緣的才有padding,作者認(rèn)為這會(huì)導(dǎo)致不連續(xù),導(dǎo)致對(duì)于search image邊緣的目標(biāo)識(shí)別很差。因此本文的作者從兩個(gè)方面探究了加深siam系列網(wǎng)絡(luò)的辦法:第一,感受野的問(wèn)題,作者探究發(fā)現(xiàn)siam系列網(wǎng)絡(luò)prefer small stride,4~8最宜,同時(shí)網(wǎng)絡(luò)最后的感受野最好在整幅exemplar的60%至80%最佳,stride也要根據(jù)這個(gè)來(lái)調(diào)整;針對(duì)padding問(wèn)題,作者設(shè)計(jì)了一種新的殘差網(wǎng)絡(luò)結(jié)構(gòu),先padding,得到feature map后再刪除feature map上受padding影響元素。
          再來(lái)看下結(jié)果

          6. siamFC++

          針對(duì)siam網(wǎng)絡(luò)分析了之前的工作不合理的地方,提出了4條guidelines,并就這4條guidelines對(duì)siamfc進(jìn)行了改進(jìn),個(gè)人認(rèn)為這幾點(diǎn)guidelines非常有意義。
          • 跟蹤網(wǎng)絡(luò)分為兩個(gè)子任務(wù),一個(gè)是分類,一個(gè)是位置的準(zhǔn)確估計(jì)。即網(wǎng)絡(luò)需要有分類與位置估計(jì)兩個(gè)分支。缺少分類分支,模型的判別性會(huì)降低,表現(xiàn)到VOT評(píng)價(jià)指標(biāo)上就是R不高;缺少位置估計(jì)分支,目標(biāo)的位置準(zhǔn)確度會(huì)降低,表現(xiàn)到VOT評(píng)價(jià)指標(biāo)上就是A不高。

          • 分類與位置估計(jì)使用的feature map要分開(kāi)。即不能分類的feature map上直接得到位置的估計(jì),否則會(huì)降低A。

          • siam匹配的要是原始的exemplar,不能是與預(yù)設(shè)定的anchors匹配,否則模型的判別性會(huì)降低,siamFC++的A值略低于siamRPN++,但是R值在測(cè)試過(guò)的數(shù)據(jù)集上都比siamRPN++高,作者認(rèn)為就是anchors的原因,在論文的實(shí)驗(yàn)部分,作者進(jìn)行了實(shí)驗(yàn)發(fā)現(xiàn)siamRPN系列都是與anchors進(jìn)行匹配而不是exemplar本身,但是anchors與exemplar之間存在一些差異,導(dǎo)致siamRPN的魯棒性不高。

          • 不能加入數(shù)據(jù)分布的先驗(yàn)知識(shí),例如原始siamFC的三種尺度變換,anchors等實(shí)際上都是對(duì)目標(biāo)尺度的一種先驗(yàn),否則會(huì)影響模型的通用性。

          網(wǎng)絡(luò)結(jié)構(gòu)如上圖,值得注意的是siamfc++未使用anchors那么她是怎么解決尺度問(wèn)題的呢,筆者在論文中似乎未見(jiàn)到作者關(guān)于這方面的提及,如果有朋友注意到還請(qǐng)?jiān)谠u(píng)論區(qū)告知,此外作者在論文中說(shuō)他們追隨了“per-pixel prediction fashion”,這是指什么也還有待開(kāi)源代碼后筆者再研究下。
          另外值得注意的是作者在訓(xùn)練時(shí)是如何定義正副樣本的。作者認(rèn)為落在bbox內(nèi)部的點(diǎn)都算positive,在計(jì)算loss時(shí),只考慮positive的點(diǎn),在對(duì)位置回歸時(shí),作者實(shí)驗(yàn)發(fā)現(xiàn)PSS loss比IOU loss高0.2個(gè)點(diǎn),所以位置回歸分支使用PSS loss,分類分支使用focal loss,quality分支使用BCE(即作者使用了兩種不同的loss來(lái)訓(xùn)練分類分支)。在訓(xùn)練時(shí),只使用了positive的點(diǎn),該模型對(duì)背景的區(qū)分度可能不夠(還是要運(yùn)行代碼看呀),如果把背景也加上會(huì)不會(huì)進(jìn)一步提升模型的判別性。跟蹤不僅僅是單純的根據(jù)exemplar圖像本身特征尋找,目標(biāo)周圍的環(huán)境對(duì)跟蹤也有幫助,對(duì)loss進(jìn)行改進(jìn)。
          最后看下消融實(shí)驗(yàn)以及最后的結(jié)果

          由該圖可以看到siamFC++改進(jìn)的各部分對(duì)于最后結(jié)果的提升(與原始的siamFC比較),位置回歸對(duì)EAO提升最大,the regression branch (0.094), data source diversity (0.063/0.010), stronger backbone (0.026), and better head structure (0.020).


          四. GradNet


          GradNet主要解決的是網(wǎng)絡(luò)在線更新template的問(wèn)題,對(duì)于template的更新主要有兩種一種是類似與Dasiamrpn融合template,另一種是梯度下降對(duì)template進(jìn)行修正。作者的方法對(duì)標(biāo)第二種,第二種最大的缺點(diǎn)在于要迭代很多次,GradNet思路清奇的訓(xùn)練了一個(gè)網(wǎng)絡(luò)來(lái)替代這么多次梯度下降迭代優(yōu)化。
          關(guān)于這篇論文的筆記,請(qǐng)參考我在github上寫(xiě)的GradNet筆記


          五. 統(tǒng)一檢測(cè)與單目標(biāo)跟蹤的網(wǎng)絡(luò)


          詳細(xì)筆記同樣參見(jiàn)我在github上寫(xiě)的統(tǒng)一檢測(cè)與單目標(biāo)跟蹤筆記
          首先闡述下筆者關(guān)于將檢測(cè)直接應(yīng)用到單目標(biāo)跟蹤領(lǐng)域的難點(diǎn):
          • 如何將exemplar與srch img 融合到一起,目的就是告訴網(wǎng)絡(luò)需要跟蹤的對(duì)象,實(shí)際上也就是作者提出的第一個(gè)難點(diǎn)。

          • 網(wǎng)絡(luò)不可能提前知道要跟蹤的目標(biāo)從而進(jìn)行相應(yīng)的訓(xùn)練,如何使得網(wǎng)絡(luò)能夠識(shí)別出“臨時(shí)”挑選的目標(biāo)。采用meta-learning的方法如何避免過(guò)擬合。

          • siam成功的地方在于將上述兩個(gè)問(wèn)題轉(zhuǎn)化為匹配問(wèn)題,即在srch img中匹配exemplar,siam的問(wèn)題在于網(wǎng)絡(luò)的判別性,即不會(huì)匹配到背景,另外exemplar是否更新,如何更新,尺度變換問(wèn)題如何解決。

          然后這篇論文對(duì)于這幾個(gè)問(wèn)題的解決方案summary是:
          • 提出了target-guidance module(TGM)將exemplar圖像融合到檢測(cè)的feature map里。

          • 在線學(xué)習(xí)Meta-learning對(duì)classification head微調(diào)。

          • 在線更新權(quán)重

          • anchored updating strategy減少M(fèi)eta-learning的overfitting。


          下載1:OpenCV-Contrib擴(kuò)展模塊中文版教程
          在「小白學(xué)視覺(jué)」公眾號(hào)后臺(tái)回復(fù):擴(kuò)展模塊中文教程即可下載全網(wǎng)第一份OpenCV擴(kuò)展模塊教程中文版,涵蓋擴(kuò)展模塊安裝、SFM算法、立體視覺(jué)、目標(biāo)跟蹤、生物視覺(jué)、超分辨率處理等二十多章內(nèi)容。

          下載2:Python視覺(jué)實(shí)戰(zhàn)項(xiàng)目52講
          小白學(xué)視覺(jué)公眾號(hào)后臺(tái)回復(fù):Python視覺(jué)實(shí)戰(zhàn)項(xiàng)目即可下載包括圖像分割、口罩檢測(cè)、車道線檢測(cè)、車輛計(jì)數(shù)、添加眼線、車牌識(shí)別、字符識(shí)別、情緒檢測(cè)、文本內(nèi)容提取、面部識(shí)別等31個(gè)視覺(jué)實(shí)戰(zhàn)項(xiàng)目,助力快速學(xué)校計(jì)算機(jī)視覺(jué)。

          下載3:OpenCV實(shí)戰(zhàn)項(xiàng)目20講
          小白學(xué)視覺(jué)公眾號(hào)后臺(tái)回復(fù):OpenCV實(shí)戰(zhàn)項(xiàng)目20講即可下載含有20個(gè)基于OpenCV實(shí)現(xiàn)20個(gè)實(shí)戰(zhàn)項(xiàng)目,實(shí)現(xiàn)OpenCV學(xué)習(xí)進(jìn)階。

          交流群


          歡迎加入公眾號(hào)讀者群一起和同行交流,目前有SLAM、三維視覺(jué)、傳感器自動(dòng)駕駛、計(jì)算攝影、檢測(cè)、分割、識(shí)別、醫(yī)學(xué)影像、GAN算法競(jìng)賽等微信群(以后會(huì)逐漸細(xì)分),請(qǐng)掃描下面微信號(hào)加群,備注:”昵稱+學(xué)校/公司+研究方向“,例如:”張三 + 上海交大 + 視覺(jué)SLAM“。請(qǐng)按照格式備注,否則不予通過(guò)。添加成功后會(huì)根據(jù)研究方向邀請(qǐng)進(jìn)入相關(guān)微信群。請(qǐng)勿在群內(nèi)發(fā)送廣告,否則會(huì)請(qǐng)出群,謝謝理解~


          瀏覽 122
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  成人影音先锋在线资源 | 538精品在线视频 | 黑人狂躁翔田千里A片 | 精品久久久麻豆 | 性爱aaa |