<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          綜述:解決目標檢測中的樣本不均衡問題

          共 15217字,需瀏覽 31分鐘

           ·

          2020-09-25 20:17

          點擊上方AI算法與圖像處理”,選擇加"星標"或“置頂”

          重磅干貨,第一時間送達

          導(dǎo)讀

           

          本文對目標檢測中的樣本不均衡問題類別進行了詳細敘述,介紹了包括OHEM、S-OHEM、Focal loss、GHM等在內(nèi)的幾種主要方法,并梳理了它們的思路和優(yōu)缺點。

          來源丨AI算法修煉營
          編輯丨極市平臺

          前面的話

          當前主流的物體檢測算法,如Faster RCNN和SSD等,都是將目標檢測當做分類問題來考慮,即先使用先驗框或者RPN等生成感興趣的區(qū)域,再對該區(qū)域進行分類與回歸位置。這種基于分類思想的目標檢測算法存在樣本不平衡的問題,因而會降低模型的訓(xùn)練效率與檢測精度。


          本文主要介紹如何解決樣本不均衡問題。


          解決樣本不均衡問題


          當前基于深度學習的目標檢測主要包括:基于two-stage的目標檢測和基于one-stage的目標檢測。two-stage的目標檢測框架一般檢測精度相對較高,但檢測速度慢;而one-stage的目標檢測速度相對較快,但是檢測精度相對較低。one-stage的精度不如two-stage的精度,一個主要的原因是訓(xùn)練過程中樣本極度不均衡造成的。


          定義


          樣本不均衡問題:指在訓(xùn)練的時候各個類別的樣本數(shù)量不均衡,由于檢測算法各不相同,以及數(shù)據(jù)集之間的差異,可能會存在正負樣本、難易樣本、類別間樣本這3種不均衡問題。一般在目標檢測任務(wù)框架中,保持正負樣本的比例為1:3(經(jīng)驗值)。


          樣本不平衡實際上是一種非常常見的現(xiàn)象。比如:在欺詐交易檢測,欺詐交易的訂單應(yīng)該是占總交易數(shù)量極少部分;工廠中產(chǎn)品質(zhì)量檢測問題,合格產(chǎn)品的數(shù)量應(yīng)該是遠大于不合格產(chǎn)品的;信用卡的征信問題中往往就是正樣本居多。

          目標檢測任務(wù)中,樣本包括哪些類別

          • 正樣本:標簽區(qū)域內(nèi)的圖像區(qū)域,即目標圖像塊

          • 負樣本:標簽區(qū)域以外的圖像區(qū)域,即圖像背景區(qū)域

          • 易分正樣本:容易正確分類的正樣本,在實際訓(xùn)練過程中,該類占總體樣本的比重非常高,單個樣本的損失函數(shù)較小,但是累計的損失函數(shù)會主導(dǎo)損失函數(shù)

          • 易分負樣本:容易正確分類的負樣本,在實際訓(xùn)練過程中,該類占的比重非常高,單個樣本的損失函數(shù)較小,但是累計的損失函數(shù)會主導(dǎo)損失函數(shù)

          • 難分正樣本:錯分成負樣本的正樣本,這部分樣本在訓(xùn)練過程中單個樣本的損失函數(shù)較高,但是該類占總體樣本的比例較小

          • 難分負樣本:錯分成正樣本的負樣本,這部分樣本在訓(xùn)練過程中單個樣本的損失函數(shù)教高,但是該類占總體樣本的比例教小



          1.正負樣本不均衡


          以Faster RCNN為例,在RPN部分會生成20000個左右的Anchor,由于一張圖中通常有10個左右的物體,導(dǎo)致可能只有100個左右的Anchor會是正樣本,正負樣本比例約為1∶200,存在嚴重的不均衡。


          對于目標檢測算法,主要需要關(guān)注的是對應(yīng)著真實物體的正樣本,在訓(xùn)練時會根據(jù)其loss來調(diào)整網(wǎng)絡(luò)參數(shù)。相比之下,負樣本對應(yīng)著圖像的背景,如果有大量的負樣本參與訓(xùn)練,則會淹沒正樣本的損失,從而降低網(wǎng)絡(luò)收斂的效率與檢測精度。


          2.難易樣本不均衡

          難樣本指的是分類不太明確的邊框,處在前景與背景的過渡區(qū)域上,在網(wǎng)絡(luò)訓(xùn)練中難樣本損失會較大,也是我們希望模型去學習優(yōu)化的樣本,利用這部分訓(xùn)練可以提升檢測的準確率。

          然而,大量的樣本并非處在前景與背景的過渡區(qū),而是與真實物體沒有重疊區(qū)域的負樣本,或者與真實物體重疊程度很高的正樣本,這部分被稱為簡單樣本,單個損失會較小,對參數(shù)收斂的作用有限。

          雖然簡單樣本單個損失小,但由于數(shù)量眾多,因此如果全都計算損失的話,其損失也會比難樣本大很多,這種難易樣本的不均衡也會影響模型的收斂與精度

          值得注意的是,由于負樣本中大量的是簡單樣本,導(dǎo)致難易樣本與正負樣本這兩個不均衡問題有一定的重疊,解決方法往往能同時對這兩個問題起作用。

          3.類別間樣本不均衡

          在有些目標檢測的數(shù)據(jù)集中,還會存在類別間的不均衡問題。舉個例子,數(shù)據(jù)集中有100萬個車輛、1000個行人的實例標簽,樣本比例為1000∶1,屬于典型的類別不均衡。

          這種情況下,如果不做任何處理,使用該數(shù)據(jù)集進行訓(xùn)練,由于行人這一類別可參考標簽太少,會使得模型主要關(guān)注車這一類別的檢測,網(wǎng)絡(luò)中的參數(shù)主要根據(jù)車輛的損失進行優(yōu)化,導(dǎo)致行人的檢測精度大大下降。

          目前,解決樣本不均衡問題的一些思路:


          機器學習中,解決樣本不均衡問題主要有2種思路:數(shù)據(jù)角度和算法角度。從數(shù)據(jù)角度出發(fā),有擴大數(shù)據(jù)集、數(shù)據(jù)類別均衡采樣等方法。在算法層面,目標檢測方法使用的方法主要有:


          • Faster RCNN、SSD等算法在正負樣本的篩選時,根據(jù)樣本與真實物體的IoU大小,設(shè)置了3∶1的正負樣本比例,這一點緩解了正負樣本的不均衡,同時也對難易樣本不均衡起到了作用。


          • Faster RCNN在RPN模塊中,通過前景得分排序篩選出了2000個左右的候選框,這也會將大量的負樣本與簡單樣本過濾掉,緩解了前兩個不均衡問題。


          • 權(quán)重懲罰:對于難易樣本與類別間的不均衡,可以增大難樣本與少類別的損失權(quán)重,從而增大模型對這些樣本的懲罰,緩解不均衡問題。


          • 數(shù)據(jù)增強:從數(shù)據(jù)側(cè)入手,可以在當前數(shù)據(jù)集上使用隨機生成和添加擾動的方法,也可以利用網(wǎng)絡(luò)爬蟲數(shù)據(jù)等增加數(shù)據(jù)集的豐富性,從而緩解難易樣本和類別間樣本等不均衡問題,可以參考SSD的數(shù)據(jù)增強方法。


          近年來,不少的研究者針對樣本不均衡問題進行了深入研究,比較典型的有OHEM(在線困難樣本挖掘)、S-OHEM、Focal Loss、GHM(梯度均衡化)。下面將詳細介紹:


          1 OHEM:在線難例挖掘


          OHEM算法(online hard example miniing,發(fā)表于2016年的CVPR)主要是針對訓(xùn)練過程中的困難樣本自動選擇,其核心思想是根據(jù)輸入樣本的損失進行篩選,篩選出困難樣本(即對分類和檢測影響較大的樣本),然后將篩選得到的這些樣本應(yīng)用在隨機梯度下降中訓(xùn)練。

           

          傳統(tǒng)的Fast RCNN系列算法在正負樣本選擇的時候采用當前RoI與真實物體的IoU閾值比較的方法,這樣容易忽略一些較為重要的難負樣本,并且固定了正、負樣本的比例與最大數(shù)量,顯然不是最優(yōu)的選擇。以此為出發(fā)點,OHEM將交替訓(xùn)練與SGD優(yōu)化方法進行了結(jié)合,在每張圖片的RoI中選擇了較難的樣本,實現(xiàn)了在線的難樣本挖掘。

           

           


          OHEM實現(xiàn)在線難樣本挖掘的網(wǎng)絡(luò)如上圖所示。圖中包含了兩個相同的RCNN網(wǎng)絡(luò),上半部的a部分是只可讀的網(wǎng)絡(luò),只進行前向運算;下半部的b網(wǎng)絡(luò)即可讀也可寫,需要完成前向計算與反向傳播

           

          在一個batch的訓(xùn)練中,基于Fast RCNN的OHEM算法可以分為以下5步:


          (1)按照原始Fast RCNN算法,經(jīng)過卷積提取網(wǎng)絡(luò)與RoI Pooling得到了每一張圖像的RoI


          (2)上半部的a網(wǎng)絡(luò)對所有的RoI進行前向計算,得到每一個RoI的損失


          (3)對RoI的損失進行排序,進行一步NMS操作,以去除掉重疊嚴重的RoI,并在篩選后的RoI中選擇出固定數(shù)量損失較大的部分,作為難樣本。


          (4)將篩選出的難樣本輸入到可讀寫的b網(wǎng)絡(luò)中,進行前向計算,得到損失。


          (5)利用b網(wǎng)絡(luò)得到的反向傳播更新網(wǎng)絡(luò),并將更新后的參數(shù)與上半部的a網(wǎng)絡(luò)同步,完成一次迭代。

           

          當然,為了實現(xiàn)方便,OHEM的簡單實現(xiàn)可以是:在原有的Fast-RCNN里的loss layer里面對所有的props計算其loss,根據(jù)loss對其進行排序,選出K個hard examples,反向傳播時,只對這K個props的梯度/殘差回傳,而其他的props的梯度/殘差設(shè)為0。

          但是,由于其特殊的損失計算方式,把簡單的樣本都舍棄了,導(dǎo)致模型無法提升對于簡單樣本的檢測精度,這也是OHEM方法的一個弊端。

           

          優(yōu)點


          1) 對于數(shù)據(jù)的類別不平衡問題不需要采用設(shè)置正負樣本比例的方式來解決,這種在線選擇方式針對性更強


          2) 隨著數(shù)據(jù)集的增大,算法的提升更加明顯;

           

          缺點


          只保留loss較高的樣本,完全忽略簡單的樣本,這本質(zhì)上是改變了訓(xùn)練時的輸入分布(僅包含困難樣本),這會導(dǎo)致模型在學習的時候失去對簡單樣本的判別能力


          2. S-OHEM:基于loss分布采樣的在線困難樣本挖掘


          在OHEM中定義的多任務(wù)損失函數(shù)(包括分類損失  和定位損失  ),在整個訓(xùn)練過程中各類損失具有相同的權(quán)重,這種方法忽略了訓(xùn)練過程中不同損失類型的影響,例如在訓(xùn)練期的后期,定位損失更為重要,因此OHEM缺乏對定位精度的足夠關(guān)注


          S-OHEM算法采用了分層抽樣的方法,根據(jù)loss的分布抽樣訓(xùn)練樣本它的做法是:


          首先將預(yù)設(shè)loss的四個分段: 



          給定一個batch,先生成輸入batch中所有圖像的候選RoI,再將這些RoI送入到Read only RoI網(wǎng)絡(luò)得到RoIs的損失,然后將每個RoI計算損失并劃分到上面四個分段中,然后針對每個分段,通過排序篩選困難樣本.再將經(jīng)過篩選的RoIs送入反向傳播,用于更新網(wǎng)絡(luò)參數(shù)。


          網(wǎng)絡(luò)中損失是一個組合,具體公式為  ,  隨著訓(xùn)練階段變化而變化)之所以采用這個公式是因為在訓(xùn)練初期階段,分類損失占主導(dǎo)作用;在訓(xùn)練后期階段,邊框回歸損失函數(shù)占主導(dǎo)作用。





          S-OHEM是基于OHEM的改進,如上圖所示。網(wǎng)絡(luò)分成兩個部分:ConvNet和RoINet。RoINet又可看成兩部分:Read-only RoI Network和Standard RoI Network。圖中R表示向前傳播的RoI的數(shù)量,B表示被饋送到反向傳播的子采樣的RoI的數(shù)量。S-OHEMiner根據(jù)當前訓(xùn)練階段的采樣分布對region proposals進行抽樣。Read-only RoI Network只有forward操作,Standard RoI Network包括forward和backward操作,以hard example作為輸入,計算損失并回傳梯度。


          RoINet的兩部分共享權(quán)重,可實現(xiàn)高效地分配內(nèi)存。在圖中,藍色箭頭表示向前傳播的過程,綠色箭頭表示反向傳播過程。

          優(yōu)點


          相比原生OHEM,S-OHEM考慮了基于不同損失函數(shù)的分布來抽樣選擇困難樣本,避免了僅使用高損失的樣本來更新模型參數(shù)。

          缺點

          因為不同階段,分類損失和定位損失的貢獻不同,所以選擇損失中的兩個參數(shù)  需要根據(jù)不同訓(xùn)練階段進行改變,當應(yīng)用與不同數(shù)據(jù)集時,參數(shù)的選取也是不一樣的。即引入了額外的超參數(shù)



          3 Focal loss:專注難樣本


          當前一階的物體檢測算法,如SSD和YOLO等雖然實現(xiàn)了實時的速度,但精度始終無法與兩階的Faster RCNN相比。是什么阻礙了一階算法的高精度呢?何凱明等人將其歸咎于正、負樣本的不均衡,并基于此提出了新的損失函數(shù)Focal Loss及網(wǎng)絡(luò)結(jié)構(gòu)RetinaNet,在與同期一階網(wǎng)絡(luò)速度相同的前提下,其檢測精度比同期最優(yōu)的二階網(wǎng)絡(luò)還要高。


          對于SSD等一階網(wǎng)絡(luò),由于其需要直接從所有的預(yù)選框中進行篩選,即使使用了固定正、負樣本比例的方法,仍然效率低下,簡單的負樣本仍然占據(jù)主要地位,導(dǎo)致其精度不如兩階網(wǎng)絡(luò)。為了解決一階網(wǎng)絡(luò)中樣本的不均衡問題,何凱明等人首先改善了分類過程中的交叉熵函數(shù),提出了可以動態(tài)調(diào)整權(quán)重的Focal Loss



          1.標準交叉熵損失


          首先回顧一下標準的交叉熵(Cross Entropy, CE)函數(shù),其形式如下式所示。



          公式中,p代表樣本在該類別的預(yù)測概率,y代表樣本標簽。可以看出,當標簽為1時,p越接近1,則損失越小;標簽為0時p越接近0,則損失越小,符合優(yōu)化的方向。


          為了方便表示,按照上式將p標記為pt:

          則交叉熵可以表示為下式的形式:



          可以看出,標準的交叉熵中所有樣本的權(quán)重都是相同的,因此如果正、負樣本不均衡,大量簡單的負樣本會占據(jù)主導(dǎo)地位,少量的難樣本與正樣本會起不到作用,導(dǎo)致精度變差。


          2.平衡交叉熵損失


          為了改善樣本的不平衡問題,平衡交叉熵在標準的基礎(chǔ)上增加了一個系數(shù)αt來平衡正、負樣本的權(quán)重,αt由超參α按照下式計算得來,α取值在[0,1]區(qū)間內(nèi)。

          有了αt,平衡交叉熵損失公式如下式所示。



          盡管平衡交叉熵損失改善了正、負樣本間的不平衡,但由于其缺乏對難易樣本的區(qū)分,因此沒有辦法控制難易樣本之間的不均衡。


          3. 專注難樣本Focal loss


          Focal Loss為了同時調(diào)節(jié)正、負樣本與難易樣本,提出了如下所示的損失函數(shù)。



          其中  用于控制正負樣本的權(quán)重,當其取比較小的值來降低負樣本(多的那類樣本)的權(quán)重;  用于控制難易樣本的權(quán)重,目的是通過減少易分樣本的權(quán)重,從而使得模型在訓(xùn)練的時候更加專注難分樣本的學習。文中通過批量實驗統(tǒng)計得到當  時效果最好。


          可以看出,對于Focal loss損失函數(shù),有如下3個屬性:


          • 與平衡交叉熵類似,引入了αt權(quán)重,為了改善正負樣本的不均衡,可以提升一些精度。


          • 是為了調(diào)節(jié)難易樣本的權(quán)重。當一個邊框被誤分類時,pt較小,則接近于1,其損失幾乎不受影響;當pt接近于1時,表明其分類預(yù)測較好,是簡單樣本,接近于0,因此其損失被調(diào)低了。


          • γ是一個調(diào)制因子,γ越大,簡單樣本損失的貢獻會越低



          為了驗證Focal Loss的效果,何凱明等人還提出了一個一階物體檢測結(jié)構(gòu)RetinaNet,其結(jié)構(gòu)如下圖所示。



          對于RetinaNet的網(wǎng)絡(luò)結(jié)構(gòu),有以下5個細節(jié):


          (1)在Backbone部分,RetinaNet利用ResNet與FPN構(gòu)建了一個多尺度特征的特征金字塔。


          (2)RetinaNet使用了類似于Anchor的預(yù)選框,在每一個金字塔層,使用了9個大小不同的預(yù)選框。


          (3)分類子網(wǎng)絡(luò):分類子網(wǎng)絡(luò)為每一個預(yù)選框預(yù)測其類別,因此其輸出特征大小為KA×W×H, A默認為9, K代表類別數(shù)。中間使用全卷積網(wǎng)絡(luò)與ReLU激活函數(shù),最后利用Sigmoid函數(shù)輸出預(yù)測值。


          (4)回歸子網(wǎng)絡(luò):回歸子網(wǎng)絡(luò)與分類子網(wǎng)絡(luò)平行,預(yù)測每一個預(yù)選框的偏移量,最終輸出特征大小為4A×W×W。與當前主流工作不同的是,兩個子網(wǎng)絡(luò)沒有權(quán)重的共享。


          (5)Focal Loss:與OHEM等方法不同,F(xiàn)ocal Loss在訓(xùn)練時作用到所有的預(yù)選框上。對于兩個超參數(shù),通常來講,當γ增大時,α應(yīng)當適當減小。實驗中γ取2、α取0.25時效果最好。


          4 GHM:損失函數(shù)梯度均衡化機制


          論文地址

          https://arxiv.org/pdf/1811.05181.pdf

          代碼地址

          https://github.com/libuyu/GHM_Detection

          前面講到的OHEM算法和Focal loss各有利弊:

          1、OHEM算法會丟棄loss比較低的樣本,使得這些樣本無法被學習到。

          2、FocalLoss則是對正負樣本進行加權(quán),使得全部的樣本可以得到學習,容易分類的負樣本賦予低權(quán)值,hard examples賦予高權(quán)值。但是在所有的anchor examples中,出了大量的易分類的負樣本外,還存在很多的outlier,F(xiàn)ocalLoss對這些outlier并沒有相關(guān)策略處理。并且FocalLoss存在兩個超參,根據(jù)不同的數(shù)據(jù)集,調(diào)試兩個超參需要大量的實驗,一旦確定參數(shù)無法改變,不能根據(jù)數(shù)據(jù)的分布動態(tài)的調(diào)整。

          GHM主要思想

          GHM做法則是從樣本的梯度范數(shù)出發(fā),通過梯度范數(shù)所占的樣本比例,對樣本進行動態(tài)的加權(quán),使得具有小梯度的容易分類的樣本降權(quán),具有中梯度的hard expamle升權(quán),具有大梯度的outlier降權(quán)。

          損失函數(shù)的權(quán)重(梯度密度的倒數(shù)) 


          就是把梯度幅值范圍(X軸)劃分為M個區(qū)域,對于落在每個區(qū)域樣本的權(quán)重采取相同的修正方式類似于直方圖。具體推導(dǎo)公式如下所示。


          X軸的梯度分為M個區(qū)域,每個區(qū)域長度即為 ,第j個區(qū)域范圍即為  ,用  表示落在第j個區(qū)域內(nèi)的樣本數(shù)量。定義ind(g)表示梯度為g的樣本所落區(qū)域的序號,那么即可得出新的參數(shù)  。由于樣本的梯度密度是訓(xùn)練時根據(jù)batch計算出來的,通常情況下batch較小,直接計算出來的梯度密度可能不穩(wěn)定,所以采用滑動平均的方式處理梯度計算。

           



          這里注意M的選取。當M太小的時候,不同梯度模上的密度不具備較好的方差;當然M也不能太大,因為M過大的時候,受限于GPU限制,batch size一般都比較小,此時如果M太大的話,會導(dǎo)致每次統(tǒng)計過于稀疏(分的太細了),異常值對小區(qū)間的影響較大,導(dǎo)致訓(xùn)練不穩(wěn)定。論文根據(jù)實驗統(tǒng)計,M取30為最佳。

          GHM-C分類損失函數(shù) 


          對于分類損失函數(shù),這里采用的是交叉熵函數(shù),梯度密度中的梯度模長是基于交叉熵函數(shù)的導(dǎo)數(shù)進行計算的,GHM-C公式如下:



          根據(jù)GHM-C的計算公式可以看出,候選樣本的中的簡單負樣本和非常困難的異常樣本(離群點)的權(quán)重都會被降低,即loss會被降低,對于模型訓(xùn)練的影響也會被大大減少,正常困難樣本的權(quán)重得到提升,這樣模型就會更加專注于那些更有效的正常困難樣本,以提升模型的性能。

          GHM-R邊框回歸損失函數(shù) 

          對于回歸損失函數(shù),由于原生的Smooth L1損失函數(shù)的導(dǎo)數(shù)為1時,樣本之間就沒有難易區(qū)分度了,這樣的統(tǒng)計明顯不合理.論文修改了損失函數(shù)  ,梯度密度中的梯度模長是基于修改后的損失函數(shù)ASL1的導(dǎo)數(shù)進行計算的,GHM-R公式如下:

          因為GHM-C和GHM-R是定義的損失函數(shù),因此可以非常方便的嵌入到很多目標檢測方法中,論文作者以focal loss(大概是以RetinaNet作為baseline),對交叉熵,focal loss和GHM-C做了對比,發(fā)現(xiàn)GHM-C在focal loss 的基礎(chǔ)上在AP上提升了0.2個百分點。


          具體細節(jié)可參考論文原文《Gradient Harmonized Single-stage Detector》。


          總結(jié)


          • OHEM系列的困難樣本挖掘方法在當前的目標檢測框架上還是被大量地使用,在一些文本檢測方法中還是被經(jīng)常使用;

          • OHEM是針對現(xiàn)有樣本并根據(jù)損失loss進行困難樣本挖掘,F(xiàn)ocal Loss和GHM則從損失函數(shù)本身進行困難樣本挖掘;

          • 相比Focal loss,GHM是一個動態(tài)的損失函數(shù),即隨著不同數(shù)據(jù)的分布進行變換,不需要額外的超參數(shù)調(diào)整(但是這里其實還是會涉及到一個參數(shù),就是Unit region的數(shù)量);此外GHM在降低易分樣本權(quán)重的同時,outliner也會有一定程度的降權(quán);

          • 無論是Focal Loss,還是基于GHM的損失函數(shù)都可以嵌入到現(xiàn)有的目標檢測框架中;Focal Loss只針對分類損失,而GHM對分類損失和邊框損失都可以;

          • GHM方法在源碼實現(xiàn)上,作者采用平均滑動的方式來計算梯度密度,不過與論文中有一個區(qū)別是在計算梯度密度的時候,沒有乘以M,而是乘以有效的(也就是說有梯度信息的區(qū)間)bin個數(shù)

          • 之前嘗試過Focal Loss用于多分類任務(wù)中,發(fā)現(xiàn)在精度并沒有提升;但是我試過將訓(xùn)練數(shù)據(jù)按照訓(xùn)練數(shù)據(jù)的原始分布并將其引入到交叉熵函數(shù)中,準確率提升了GHM方法的本質(zhì)也是在改變訓(xùn)練數(shù)據(jù)的分布(將難易樣本拉勻),但是到底什么的數(shù)據(jù)分布是最優(yōu)的,目前尚未定論。


          參考:

          1.深度學習之PyTorch物體檢測實戰(zhàn) 董洪義

          2.https://zhuanlan.zhihu.com/p/60612064

          3.https://zhuanlan.zhihu.com/p/65181460

          4.OHEM:Training Region-based Object Detectors with Online Hard Example Mining
          5.S-OHEM:Stratified Online Hard Example Mining for Object Detection S-OHEM
          6.Focal Loss:Focal Loss for Dense Object Detection
          7.GHM:Gradient Harmonized Single-stage Detector


          下載1:OpenCV黑魔法


          AI算法與圖像處公眾號后臺回復(fù):OpenCV黑魔法,即可下載小編精心編寫整理的計算機視覺趣味實戰(zhàn)教程


          下載2 CVPR2020

          AI算法與圖像處公眾號后臺回復(fù):CVPR2020即可下載1467篇CVPR 2020論文
              
          個人微信(如果沒有備注不拉群!
          請注明:地區(qū)+學校/企業(yè)+研究方向+昵稱


          覺得有趣就點亮在看吧




          瀏覽 94
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  免费电影、欧美色图、亚洲色图 | 99久久久久久99久久久久久 | 天天欧美麻豆影音 | 天天躁夜夜躁狠狠躁av麻豆男男 | 欧美黄片网站 |