<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          分類(lèi)中解決類(lèi)別不平衡問(wèn)題

          共 6910字,需瀏覽 14分鐘

           ·

          2021-12-10 06:16

          點(diǎn)擊上方小白學(xué)視覺(jué)”,選擇加"星標(biāo)"或“置頂

          重磅干貨,第一時(shí)間送達(dá)

          目錄:


          1.什么是類(lèi)別不平衡問(wèn)題

          2.解決類(lèi)別不平衡問(wèn)題

          2.1欠采樣方法

          (1)什么是欠采樣方法

          (2)隨機(jī)欠采樣方法

          (3)欠采樣代表性算法-EasyEnsemble

          (4)欠采樣代表性算法-BalanceCascade

          2.2過(guò)采樣方法

          (1)什么是過(guò)采樣方法

          (2)隨機(jī)過(guò)采樣方法

          (3)過(guò)采樣代表性算法-SMOTE

          (4)Borderline-SMOTE算法介紹

          2.3代價(jià)敏感學(xué)習(xí)

          (1)代價(jià)矩陣

          (2)代價(jià)敏感學(xué)習(xí)方法

          (3)AdaCost算法

          2.4不均衡學(xué)習(xí)的評(píng)價(jià)方法

          (1)F1度量

          (2)G-Mean

          (3)ROC曲線(xiàn)AUC面積

          3.如何選擇算法

          總結(jié)


          1.什么是類(lèi)別不平衡問(wèn)題


          如果不同類(lèi)別的訓(xùn)練樣例數(shù)目稍有差別,通常影響不大,但若差別很大,則會(huì)對(duì)學(xué)習(xí)過(guò)程造成困擾。例如有998個(gè)反例,但是正例只有2個(gè),那么學(xué)習(xí)方法只需要返回一個(gè)永遠(yuǎn)將新樣本預(yù)測(cè)為反例的學(xué)習(xí)器,就能達(dá)到99.8%的精度;然而這樣的學(xué)習(xí)器往往沒(méi)有價(jià)值,因?yàn)樗荒茴A(yù)測(cè)出任何正例。

          類(lèi)別不平衡(class-imbalance)就是指分類(lèi)任務(wù)中不同類(lèi)別的訓(xùn)練樣例數(shù)目差別很大的情況。在現(xiàn)實(shí)的分類(lèi)學(xué)習(xí)任務(wù)中,我們經(jīng)常會(huì)遇到類(lèi)別不平衡,例如在通過(guò)拆分法解決多分類(lèi)問(wèn)題時(shí),即使原始問(wèn)題中不同類(lèi)別的訓(xùn)練樣例數(shù)目相當(dāng),在使用OvR(一對(duì)其余,One vs. Rest,簡(jiǎn)稱(chēng)OvR)、MvM(多對(duì)多,Many vs. Many,簡(jiǎn)稱(chēng)MvM)策略后產(chǎn)生的二分類(lèi)任務(wù)扔可能出現(xiàn)類(lèi)別不平衡現(xiàn)象,因此有必要了解類(lèi)別不平衡性處理的基本方法。

          2.解決類(lèi)別不平衡問(wèn)題


          2.1欠采樣方法


          (1)什么是欠采樣方法

          直接對(duì)訓(xùn)練集中多數(shù)類(lèi)樣本進(jìn)行“欠采樣”(undersampling),即去除一些多數(shù)類(lèi)中的樣本使得正例、反例數(shù)目接近,然后再進(jìn)行學(xué)習(xí)。

          (2)隨機(jī)欠采樣方法

          隨機(jī)欠采樣顧名思義即從多數(shù)類(lèi)中隨機(jī)選擇一些樣樣本組成樣本集。然后將樣本集中移除。新的數(shù)據(jù)集

          缺點(diǎn):

          隨機(jī)欠采樣方法通過(guò)改變多數(shù)類(lèi)樣本比例以達(dá)到修改樣本分布的目的,從而使樣本分布較為均衡,但是這也存在一些問(wèn)題。對(duì)于隨機(jī)欠采樣,由于采樣的樣本集合要少于原來(lái)的樣本集合,因此會(huì)造成一些信息缺失,即將多數(shù)類(lèi)樣本刪除有可能會(huì)導(dǎo)致分類(lèi)器丟失有關(guān)多數(shù)類(lèi)的重要信息。

          為了克服隨機(jī)欠采樣方法導(dǎo)致的信息缺失問(wèn)題,又要保證算法表現(xiàn)出較好的不均衡數(shù)據(jù)分類(lèi)性能,出現(xiàn)了欠采樣法代表性的算法EasyEnsemble和BalanceCascade算法。

          (3)欠采樣代表性算法-EasyEnsemble

          算法步驟:

          1)從多數(shù)類(lèi)中有放回的隨機(jī)采樣n次,每次選取與少數(shù)類(lèi)數(shù)目相近的樣本個(gè)數(shù),那么可以得到n個(gè)樣本集合記作

          2)然后,將每一個(gè)多數(shù)類(lèi)樣本的子集與少數(shù)類(lèi)樣本合并并訓(xùn)練出一個(gè)模型,可以得到n個(gè)模型。

          3)最終將這些模型組合形成一個(gè)集成學(xué)習(xí)系統(tǒng),最終的模型結(jié)果是這n個(gè)模型的平均值。


          圖1:EasyEnsemble算法


          (4)欠采樣代表性算法-BalanceCascade

          BalanceCascade算法基于Adaboost,將Adaboost作為基分類(lèi)器,其核心思路是:

          1)在每一輪訓(xùn)練時(shí)都使用多數(shù)類(lèi)與少數(shù)類(lèi)數(shù)量相等的訓(xùn)練集,訓(xùn)練出一個(gè)Adaboost基分類(lèi)器。

          2)然后使用該分類(lèi)器對(duì)全體多數(shù)類(lèi)進(jìn)行預(yù)測(cè),通過(guò)控制分類(lèi)閾值來(lái)控制假正例率(False Positive Rate),將所有判斷正確的類(lèi)刪除。

          3)最后,進(jìn)入下一輪迭代中,繼續(xù)降低多數(shù)類(lèi)數(shù)量。

          圖2:BalanceCascade算法


          擴(kuò)展閱讀:

          Liu X Y, Wu J, Zhou Z H. Exploratory undersampling for class-imbalance learning[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 2009, 39(2): 539-550.

          這篇論文提出了兩種欠采樣的方法:EasyEnsemble和BalanceCascade。

          2.2過(guò)采樣方法

          (1)什么是過(guò)采樣方法

          對(duì)訓(xùn)練集里的少數(shù)類(lèi)進(jìn)行“過(guò)采樣”(oversampling),即增加一些少數(shù)類(lèi)樣本使得正、反例數(shù)目接近,然后再進(jìn)行學(xué)習(xí)。

          (2)隨機(jī)過(guò)采樣方法

          隨機(jī)過(guò)采樣是在少數(shù)類(lèi)中隨機(jī)選擇一些樣本,然后通過(guò)復(fù)制所選擇的樣本生成樣本集,將它們添加到中來(lái)擴(kuò)大原始數(shù)據(jù)集從而得到新的少數(shù)類(lèi)集合。新的數(shù)據(jù)集

          缺點(diǎn):

          對(duì)于隨機(jī)過(guò)采樣,由于需要對(duì)少數(shù)類(lèi)樣本進(jìn)行復(fù)制來(lái)擴(kuò)大數(shù)據(jù)集,造成模型訓(xùn)練復(fù)雜度加大。另一方面也容易造成模型的過(guò)擬合問(wèn)題,因?yàn)殡S機(jī)過(guò)采樣是簡(jiǎn)單的對(duì)初始樣本進(jìn)行復(fù)制采樣,這就使得學(xué)習(xí)器學(xué)得的規(guī)則過(guò)于具體化,不利于學(xué)習(xí)器的泛化性能,造成過(guò)擬合問(wèn)題。

          為了解決隨機(jī)過(guò)采樣中造成模型過(guò)擬合問(wèn)題,又能保證實(shí)現(xiàn)數(shù)據(jù)集均衡的目的,出現(xiàn)了過(guò)采樣法代表性的算法SMOTE和Borderline-SMOTE算法。

          (3)過(guò)采樣代表性算法-SMOTE

          SMOTE全稱(chēng)是Synthetic Minority Oversampling即合成少數(shù)類(lèi)過(guò)采樣技術(shù)。SMOTE算法是對(duì)隨機(jī)過(guò)采樣方法的一個(gè)改進(jìn)算法,由于隨機(jī)過(guò)采樣方法是直接對(duì)少數(shù)類(lèi)進(jìn)行重采用,會(huì)使訓(xùn)練集中有很多重復(fù)的樣本,容易造成產(chǎn)生的模型過(guò)擬合問(wèn)題。而SOMT算法的基本思想是對(duì)每個(gè)少數(shù)類(lèi)樣本,從它的最近鄰中隨機(jī)選擇一個(gè)樣本是少數(shù)類(lèi)中的一個(gè)樣本),然后在之間的連線(xiàn)上隨機(jī)選擇一點(diǎn)作為新合成的少數(shù)類(lèi)樣本。

          SMOTE算法合成新少數(shù)類(lèi)樣本的算法描述如下:

          1).對(duì)于少數(shù)類(lèi)中的每一個(gè)樣本,以歐氏距離為標(biāo)準(zhǔn)計(jì)算它到少數(shù)類(lèi)樣本集中所有樣本的距離,得到其k近鄰。

          2).根據(jù)樣本不平衡比例設(shè)置一個(gè)采樣比例以確定采樣倍率N,對(duì)于每一個(gè)少數(shù)類(lèi)樣本,從其k近鄰中隨機(jī)選擇若干個(gè)樣本,假設(shè)選擇的是

          3).對(duì)于每一個(gè)隨機(jī)選出來(lái)的近鄰,分別與按照如下公式構(gòu)建新的樣本。

          我們用圖文表達(dá)的方式,再來(lái)描述一下SMOTE算法。

          1).先隨機(jī)選定一個(gè)少數(shù)類(lèi)樣本




          2).找出這個(gè)少數(shù)類(lèi)樣本的K個(gè)近鄰(假設(shè)K=5),5個(gè)近鄰已經(jīng)被圈出。



          3).隨機(jī)從這K個(gè)近鄰中選出一個(gè)樣本(用綠色圈出來(lái)了)。




          4).在少數(shù)類(lèi)樣本和被選中的這個(gè)近鄰樣本之間的連線(xiàn)上,隨機(jī)找一點(diǎn)。這個(gè)點(diǎn)就是人工合成的新的樣本點(diǎn)(綠色正號(hào)標(biāo)出)。




          SMOTE算法摒棄了隨機(jī)過(guò)采樣復(fù)制樣本的做法,可以防止隨機(jī)過(guò)采樣中容易過(guò)擬合的問(wèn)題,實(shí)踐證明此方法可以提高分類(lèi)器的性能。但是SMOTE算法也存以下兩個(gè)缺點(diǎn):

          1)由于對(duì)每個(gè)少數(shù)類(lèi)樣本都生成新樣本,因此容易發(fā)生生成樣本重疊的問(wèn)題。

          2)在SMOTE算法中,出現(xiàn)了過(guò)度泛化的問(wèn)題,主要?dú)w結(jié)于產(chǎn)生合成樣本的方法。特別是,SMOTE算法對(duì)于每個(gè)原少數(shù)類(lèi)樣本產(chǎn)生相同數(shù)量的合成數(shù)據(jù)樣本,而沒(méi)有考慮其鄰近樣本的分布特點(diǎn),這就使得類(lèi)間發(fā)生重復(fù)的可能性增大。

          解釋缺點(diǎn)2)的原因:結(jié)合前面所述的SMOTE算法的原理,SMOTE算法產(chǎn)生新的人工少數(shù)類(lèi)樣本過(guò)程中,只是簡(jiǎn)單的在同類(lèi)近鄰之間插值,并沒(méi)有考慮少數(shù)類(lèi)樣本周?chē)鄶?shù)類(lèi)樣本的分布情況。如3圖所示,綠色正號(hào)1、2分布在多數(shù)類(lèi)樣本周?chē)鼈冸x多數(shù)類(lèi)樣本最近,這就導(dǎo)致它們有可能被劃分成多數(shù)類(lèi)樣本。因此從3圖中可以看出,SMOTE算法的樣本生成機(jī)制存在一定的盲目性。


          圖3:SMOTE算法結(jié)果


          為了克服以上兩點(diǎn)的限制,多種不同的自適應(yīng)抽樣方法相繼被提出,其中具有代表性的算法包括Borderline-SMOTE算法。


          擴(kuò)展閱讀:

          Chawla N V, Bowyer K W, Hall L O, et al. SMOTE: synthetic minority over-sampling technique[J]. Journal of artificial intelligence research, 2002, 16: 321-357.

          這篇論文提出了SMOTE算法。

          (4)Borderline-SMOTE算法介紹

          對(duì)于Borderline-SMOTE算法最感興趣的就是用于識(shí)別少數(shù)類(lèi)種子樣本的方法。在Borderline-SMOTE算法中,識(shí)別少數(shù)類(lèi)種子樣本的過(guò)程如下:

          1)首先,對(duì)于每個(gè),確定一系列最近鄰樣本集,成該數(shù)據(jù)集為,且

          2)然后,對(duì)每個(gè)樣本,判斷出最近鄰樣本集中屬于多數(shù)類(lèi)樣本的個(gè)數(shù),即:

          3)最后,選擇滿(mǎn)足下面不等式的

          上面式子表明,只有最近鄰樣本集中多數(shù)類(lèi)多于少數(shù)類(lèi)的那些才會(huì)被選中形成“危險(xiǎn)集”(DANGER)。因此,DANGER集中的樣本代表少數(shù)類(lèi)樣本的邊界(最容易被錯(cuò)分的樣本)。然后對(duì)DANGER集中使用SMOTE算法在邊界附近產(chǎn)生人工合成少數(shù)類(lèi)樣本。

          我們可以看出,如果 。即:的所有k個(gè)最近鄰樣本都屬于多類(lèi)。如4圖所示的樣本點(diǎn)C,我們就認(rèn)為樣本點(diǎn)C是噪聲且它不能生成合成樣本。


          圖4:基于在邊界上樣本的數(shù)據(jù)建立


          通過(guò)上面的介紹,我們對(duì)Borderline-SMOTE算法有了一定的了解。為了讓大家理解的更透徹這個(gè)算法,我再給大家畫(huà)一個(gè)流程圖,詳細(xì)介紹一下。



          圖5:Borderline-SMOTE算法流程圖


          流程圖5中,訓(xùn)練樣本集為F,少數(shù)類(lèi)樣本

          1)步驟一:

          (i)計(jì)算少數(shù)類(lèi)樣本集中每一個(gè)樣本在訓(xùn)練集F中的k個(gè)最近鄰。

          (ii)然后,根據(jù)這k個(gè)最近鄰對(duì)中的樣本進(jìn)行歸類(lèi):

          • 假設(shè)這k個(gè)最近鄰都是多數(shù)類(lèi)樣本,則我們將該樣本定義為噪聲樣本,將它放在集合中。

          • 反正k個(gè)最近鄰都是少數(shù)類(lèi)樣本則該樣本是遠(yuǎn)離分類(lèi)邊界的,將其放入S集合中。

          • 最后,K個(gè)最近鄰即有多數(shù)類(lèi)樣本又有少數(shù)類(lèi)樣本,則認(rèn)為是邊界樣本,放入B集合中。

          2)步驟二:

          (i)設(shè)邊界樣本集,計(jì)算B集合中的每一個(gè)樣本 ,在少數(shù)類(lèi)樣本集中的K個(gè)最近鄰,組成集合

          (ii)隨機(jī)選出s(1<s<n)個(gè)最近鄰。

          (iii)計(jì)算出它們各自與該樣本之間的全部屬性的差值

          (iv)然后乘以一個(gè)隨機(jī)數(shù),。如果集合或S集合中的樣本,則

          (v)最后生成的人工少數(shù)類(lèi)樣本為:

          3)步驟三:

          重復(fù)步驟2的過(guò)程,直到生成人工少數(shù)類(lèi)樣本的數(shù)目滿(mǎn)足要求,達(dá)到均衡樣本集的目的后結(jié)束算法。

          擴(kuò)展閱讀:

          Han H, Wang W Y, Mao B H. Borderline-SMOTE: a new over-sampling method in imbalanced data sets learning[C]//International Conference on Intelligent Computing. Springer, Berlin, Heidelberg, 2005: 878-887.

          這篇文章提出了Borderline-SMOTE算法。

          2.3代價(jià)敏感學(xué)習(xí)(cost-sensitive learning)

          (1)代價(jià)矩陣

          采樣算法從數(shù)據(jù)層面解決不平衡數(shù)據(jù)的學(xué)習(xí)問(wèn)題;在算法層面上解決不平衡數(shù)據(jù)學(xué)習(xí)的方法主要是基于代價(jià)敏感學(xué)習(xí)算法(Cost-Sensitive Learning)。

          在現(xiàn)實(shí)任務(wù)中常會(huì)遇到這樣的情況:不同類(lèi)型的錯(cuò)誤所造成的后果不同。例如在醫(yī)療診斷中,錯(cuò)誤地把患者診斷為健康人與錯(cuò)誤地把健康人診斷為患者,看起來(lái)都是犯了“一次錯(cuò)誤”,但是后者的影響是增加了進(jìn)一步檢查的麻煩,前者的后果卻可能是喪失了拯救生命的最佳時(shí)機(jī);再如,門(mén)禁系統(tǒng)錯(cuò)誤地把可通行人員攔在門(mén)外,將使得用戶(hù)體驗(yàn)不佳,但錯(cuò)誤地把陌生人放進(jìn)門(mén)內(nèi),則會(huì)造成嚴(yán)重的安全事故;在信用卡盜用檢查中,將正常使用誤認(rèn)為是盜用,可能會(huì)使用戶(hù)體驗(yàn)不佳,但是將盜用誤認(rèn)為是正常使用,會(huì)使用戶(hù)承受巨大的損失。為了權(quán)衡不同類(lèi)型錯(cuò)誤所造成的不同損失,可為錯(cuò)誤賦予“非均等代價(jià)”(unequal cost)。

          代價(jià)敏感學(xué)習(xí)方法的核心要素是代價(jià)矩陣,如表1所示。其中表示將第i 類(lèi)樣本預(yù)測(cè)為第j類(lèi)樣本的代價(jià)。一般來(lái)說(shuō),;若將第0類(lèi)判別為第1類(lèi)所造成的損失更大,則 ;損失程度相差越大,的值差別越大。當(dāng)相等時(shí)為代價(jià)不敏感的學(xué)習(xí)問(wèn)題。

          表1:代價(jià)矩陣


          (2)代價(jià)敏感學(xué)習(xí)方法

          基于以上代價(jià)敏感矩陣的分析,代價(jià)敏感學(xué)習(xí)方法主要有以下三種實(shí)現(xiàn)方式,分別是:

          1).從學(xué)習(xí)模型出發(fā),對(duì)某一具體學(xué)習(xí)方法的改造,使之能適應(yīng)不平衡數(shù)據(jù)下的學(xué)習(xí),研究者們針對(duì)不同的學(xué)習(xí)模型如感知機(jī)、支持向量機(jī)、決策樹(shù)、神經(jīng)網(wǎng)絡(luò)等分別提出了其代價(jià)敏感的版本。以代價(jià)敏感的決策樹(shù)為例,可以從三個(gè)方面對(duì)其進(jìn)行改造以適應(yīng)不平衡數(shù)據(jù)的學(xué)習(xí),這三個(gè)方面分別是決策閾值的選擇方面、分裂標(biāo)準(zhǔn)的選擇方面、剪枝方面,這三個(gè)方面都可以將代價(jià)矩陣引入。

          2).從貝葉斯風(fēng)險(xiǎn)理論出發(fā),把代價(jià)敏感學(xué)習(xí)看成是分類(lèi)結(jié)果的一種后處理,按照傳統(tǒng)方法學(xué)習(xí)到一個(gè)模型,以實(shí)現(xiàn)損失最小為目標(biāo)對(duì)結(jié)果進(jìn)行調(diào)整,優(yōu)化公式如下所示。此方法的優(yōu)點(diǎn)在于它可以不依賴(lài)所用的具體分類(lèi)器,但是缺點(diǎn)也很明顯,它要求分類(lèi)器輸出值為概率。

          3).從預(yù)處理的角度出發(fā),將代價(jià)用于權(quán)重調(diào)整,使得分類(lèi)器滿(mǎn)足代價(jià)敏感的特性,下面講解一種基于Adaboost的權(quán)重更新策略AdaCost算法。


          (3)AdaCost算法

          要想了解AdaCost算法,我們得先知道Adaboost算法,如圖6所示。Adaboost算法通過(guò)反復(fù)迭代,每一輪迭代學(xué)習(xí)到一個(gè)分類(lèi)器,并根據(jù)當(dāng)前分類(lèi)器的表現(xiàn)更新樣本的權(quán)重,如圖中紅框所示,其更新策略為正確分類(lèi)樣本權(quán)重降低,錯(cuò)誤分類(lèi)樣本權(quán)重增大,最終的模型是多次迭代模型的一個(gè)加權(quán)線(xiàn)性組合。分類(lèi)越準(zhǔn)確的分類(lèi)器將會(huì)獲得越大的權(quán)重。


          圖6:Adaboost算法


          AdaCost算法修改了Adaboost算法的權(quán)重更新策略,其基本思想是對(duì)代價(jià)高的誤分類(lèi)樣本大大地提高其權(quán)重,而對(duì)于代價(jià)高的正確分類(lèi)樣本適當(dāng)?shù)亟档推錂?quán)重,使其權(quán)重降低相對(duì)較小。總體思想是代價(jià)高樣本權(quán)重增加得大降低的慢。其樣本權(quán)重按照如下公式進(jìn)行更新。其中分別表示樣本被正確和錯(cuò)誤分類(lèi)情況下的的取值。



          2.4不平衡學(xué)習(xí)的評(píng)價(jià)方法

          (1)F1度量

          這一部分涉及到模型的評(píng)價(jià)方法,如果你還沒(méi)有學(xué)習(xí)過(guò),可以看我的公眾號(hào)之前發(fā)的關(guān)于這部分文章。同時(shí),我也把鏈接地址貼出來(lái),供大家快速學(xué)習(xí)。

          表2:分類(lèi)結(jié)果混淆矩陣


          例如在癌癥預(yù)測(cè)的場(chǎng)景中,假設(shè)沒(méi)有患癌癥的樣本為正例,患癌癥的樣本為反例,反例占的比例很少(大概0.1%),如果直接把分類(lèi)器設(shè)置為預(yù)測(cè)都是正例,那么精度和查準(zhǔn)率的值都是99.9%。可見(jiàn)精度、錯(cuò)誤率和查準(zhǔn)率都不能表示不平衡數(shù)據(jù)下的模型表現(xiàn)。而F1值則同時(shí)考慮了少數(shù)類(lèi)的查準(zhǔn)率和召回率,因此能衡量不平衡數(shù)據(jù)下模型的表現(xiàn)。



          (2)G-Mean

          G-Mean是另外一個(gè)指標(biāo),也能評(píng)價(jià)不平衡數(shù)據(jù)的模型表現(xiàn),其計(jì)算公式如下。


          (3)ROC曲線(xiàn)和AUC面積

          我的這篇文章把ROC曲線(xiàn)和AUC面積分析的全面。ROC曲線(xiàn)和AUC面積可以很好的評(píng)價(jià)不平衡數(shù)據(jù)的模型表現(xiàn)。

          3.如何選擇算法


          (1)在正負(fù)樣本都非常少的情況下,應(yīng)該采用數(shù)據(jù)合成的方式,例如:SMOTE算法和Borderline-SMOTE算法。

          (2)在正負(fù)樣本都足夠多且比例不是特別懸殊的情況下,應(yīng)該考慮采樣的方法或者是加權(quán)的方法。

          總結(jié):


          ??????????????文主要介紹了分類(lèi)中類(lèi)別不均衡時(shí)學(xué)習(xí)中常用的算法及評(píng)價(jià)指標(biāo),算法主要從數(shù)據(jù)和模型兩個(gè)層面介紹,數(shù)據(jù)層面的算法主要關(guān)于過(guò)采樣和欠采樣以及改進(jìn)的算法,模型方面主要講解了基于代價(jià)的敏感學(xué)習(xí)。評(píng)價(jià)指標(biāo)主要講解了F1度量、G-Mean和ROC曲線(xiàn)AUC面積。

          下載1:OpenCV-Contrib擴(kuò)展模塊中文版教程
          在「小白學(xué)視覺(jué)」公眾號(hào)后臺(tái)回復(fù):擴(kuò)展模塊中文教程即可下載全網(wǎng)第一份OpenCV擴(kuò)展模塊教程中文版,涵蓋擴(kuò)展模塊安裝、SFM算法、立體視覺(jué)、目標(biāo)跟蹤、生物視覺(jué)、超分辨率處理等二十多章內(nèi)容。

          下載2:Python視覺(jué)實(shí)戰(zhàn)項(xiàng)目52講
          小白學(xué)視覺(jué)公眾號(hào)后臺(tái)回復(fù):Python視覺(jué)實(shí)戰(zhàn)項(xiàng)目即可下載包括圖像分割、口罩檢測(cè)、車(chē)道線(xiàn)檢測(cè)、車(chē)輛計(jì)數(shù)、添加眼線(xiàn)、車(chē)牌識(shí)別、字符識(shí)別、情緒檢測(cè)、文本內(nèi)容提取、面部識(shí)別等31個(gè)視覺(jué)實(shí)戰(zhàn)項(xiàng)目,助力快速學(xué)校計(jì)算機(jī)視覺(jué)。

          下載3:OpenCV實(shí)戰(zhàn)項(xiàng)目20講
          小白學(xué)視覺(jué)公眾號(hào)后臺(tái)回復(fù):OpenCV實(shí)戰(zhàn)項(xiàng)目20講即可下載含有20個(gè)基于OpenCV實(shí)現(xiàn)20個(gè)實(shí)戰(zhàn)項(xiàng)目,實(shí)現(xiàn)OpenCV學(xué)習(xí)進(jìn)階。

          交流群


          歡迎加入公眾號(hào)讀者群一起和同行交流,目前有SLAM、三維視覺(jué)、傳感器自動(dòng)駕駛、計(jì)算攝影、檢測(cè)、分割、識(shí)別、醫(yī)學(xué)影像、GAN算法競(jìng)賽等微信群(以后會(huì)逐漸細(xì)分),請(qǐng)掃描下面微信號(hào)加群,備注:”昵稱(chēng)+學(xué)校/公司+研究方向“,例如:”張三 + 上海交大 + 視覺(jué)SLAM“。請(qǐng)按照格式備注,否則不予通過(guò)。添加成功后會(huì)根據(jù)研究方向邀請(qǐng)進(jìn)入相關(guān)微信群。請(qǐng)勿在群內(nèi)發(fā)送廣告,否則會(huì)請(qǐng)出群,謝謝理解~


          瀏覽 70
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  在线观看A片视频 | 美女被操网站 | 国产AV天堂 | 青青视频理论在线观看 | 激情自拍视频网 |