<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          ?一文讀懂決策樹(shù)

          共 1964字,需瀏覽 4分鐘

           ·

          2021-08-02 23:13


          點(diǎn)擊左上方藍(lán)字關(guān)注我們



          一個(gè)專(zhuān)注于目標(biāo)檢測(cè)與深度學(xué)習(xí)知識(shí)分享的公眾號(hào)

          編者薦語(yǔ)
          決策樹(shù)是機(jī)器學(xué)習(xí)模型較常用的一種方法,李航老師《統(tǒng)計(jì)學(xué)習(xí)方法》詳細(xì)的描述了決策樹(shù)的生成和剪枝,文章根據(jù)書(shū)中的內(nèi)容,對(duì)決策樹(shù)進(jìn)行了總結(jié),希望可以對(duì)大家有一定的幫助。



          目錄


          1. 決策樹(shù)不確定性的度量方法

          2. 決策樹(shù)的特征篩選準(zhǔn)則

          3. 決策函數(shù)的損失函數(shù)評(píng)估

          4. 決策樹(shù)最優(yōu)模型的構(gòu)建步驟

          5. 決策樹(shù)的優(yōu)缺點(diǎn)分析


          決策樹(shù)不確定性的度量方法

          1. 不確定性的理解

          下圖為事件A是否發(fā)生的概率分布,事件發(fā)生記為1,討論事件A的不確定性。

          (1) 我們考慮一種極端的情況,若 p=1或 p=0,表示為事件A必定發(fā)生或事件A不可能發(fā)生,即不確定性為0。


          (2) 若 p>1/2,即事件A發(fā)生的概率大于事件A不發(fā)生的概率,我們傾向于預(yù)測(cè)事件A是發(fā)生的;若 p<1/2,即事件A不發(fā)生的概率小于事件A發(fā)生的概率,我們傾向于預(yù)測(cè)事件A是不發(fā)生的。若 p=1/2,即事件A發(fā)生的概率等于事件A不發(fā)生的概率,我們無(wú)法作出預(yù)測(cè),即事件A的不確定性達(dá)到最大,以致于我們無(wú)從預(yù)測(cè),或者可以理解成事件A太復(fù)雜了,復(fù)雜的我們只能靠運(yùn)氣去猜測(cè)事件A是否發(fā)生。


          2. 決策樹(shù)不確定性的度量方法


          本文用熵和基尼指數(shù)去衡量數(shù)據(jù)集的不確定性,假設(shè)數(shù)據(jù)集包含了K類(lèi),每個(gè)類(lèi)的大小和比例分別為 Di 和 pi,i = 1,2,...K。

          (1)熵的不確定性度量方法

          在信息論和概率論統(tǒng)計(jì)中,熵是表示隨機(jī)變量不確定性的度量,令熵為H(p),則:

          熵越大,數(shù)據(jù)集的不確定性就越大。

          (2)基尼指數(shù)的不確定度量方法

          數(shù)據(jù)集的基尼指數(shù)定義為:

          基尼指數(shù)越大,數(shù)據(jù)集的不確定性越大。


          決策樹(shù)的特征篩選準(zhǔn)則


          假設(shè)數(shù)據(jù)集A共有K個(gè)特征,記為xi,i=1,2,...K。數(shù)據(jù)集A的不確定性越大,則數(shù)據(jù)集A包含的信息也越多。假設(shè)數(shù)據(jù)集A的信息為H(A),經(jīng)過(guò)特征xi篩選后的信息為H(A|xi),定義信息增益g(A,xi)為兩者的差值,即:

          g(A,xi) = H(A) - H(A|xi)

          選擇使數(shù)據(jù)集A信息增益最大的特征作為篩選特征,數(shù)學(xué)表示為:

          x = max( g(A,xi) ) = max( H(A) - H(A|xi) )


          決策樹(shù)的損失函數(shù)評(píng)估


          令決策樹(shù)的葉節(jié)點(diǎn)數(shù)為T(mén),損失函數(shù)為:

          其中C(T)為決策樹(shù)的訓(xùn)練誤差,決策樹(shù)模型用不確定性表示,不確定性越大,則訓(xùn)練誤差亦越大。T表示決策樹(shù)的復(fù)雜度懲罰,α參數(shù)權(quán)衡訓(xùn)練數(shù)據(jù)的訓(xùn)練誤差與模型復(fù)雜度的關(guān)系,意義相當(dāng)于正則化參數(shù)。

          考慮極端情況:當(dāng)α趨于0的時(shí)候,最優(yōu)決策樹(shù)模型的訓(xùn)練誤差接近 0,模型處于過(guò)擬合;當(dāng)α趨于無(wú)窮大的時(shí)候,最優(yōu)決策樹(shù)模型是由根節(jié)點(diǎn)組成的單節(jié)點(diǎn)樹(shù)。


          決策樹(shù)最優(yōu)模型的構(gòu)建步驟


          將數(shù)據(jù)集A通過(guò)一定的比例劃分為訓(xùn)練集和測(cè)試集。

          決策樹(shù)的損失函數(shù):

          決策樹(shù)最優(yōu)模型的構(gòu)建步驟包括訓(xùn)練階段和測(cè)試階段:


          訓(xùn)練階段:

          (1)最小化決策樹(shù)的不確定性值得到的生成模型,即決策樹(shù)生成;

          (2)通過(guò)決策樹(shù)剪枝,得到不同的正則化參數(shù)α下的最優(yōu)決策樹(shù)模型,即決策樹(shù)剪枝。


          下面重點(diǎn)討論訓(xùn)練階段的決策樹(shù)生成步驟和決策樹(shù)剪枝步驟。

          決策樹(shù)生成步驟:

          (1) 根據(jù)決策樹(shù)的特征篩選準(zhǔn)則,選擇數(shù)據(jù)集信息增益最大的特征;

           (2) 重復(fù)第一個(gè)步驟,直到所有葉節(jié)點(diǎn)的不確定性為0 。

          決策樹(shù)剪枝步驟:

          (1) 將正則化參數(shù)α從小到大分成不同的區(qū)間,對(duì)決策樹(shù)的非葉節(jié)點(diǎn)進(jìn)行剪枝,令該節(jié)點(diǎn)為T(mén),以該節(jié)點(diǎn)為根節(jié)點(diǎn)的子樹(shù)為T(mén)t。

          (2) 當(dāng)α滿(mǎn)足如下條件時(shí):

          節(jié)點(diǎn)為單節(jié)點(diǎn)樹(shù)的損失函數(shù)與子樹(shù)Tt的損失函數(shù)相等,而剪枝后的復(fù)雜度降低了,泛化性能較好,因此,對(duì)該節(jié)點(diǎn)進(jìn)行剪枝。

          (3)遍歷所有非葉節(jié)點(diǎn),得到每個(gè)剪枝后的最優(yōu)子樹(shù)與對(duì)應(yīng)的α參數(shù) 。

          備注:決策樹(shù)生成和剪枝步驟只給出大致框架,具體請(qǐng)參考李航《統(tǒng)計(jì)學(xué)習(xí)方法》


          測(cè)試階段:

          通過(guò)測(cè)試集評(píng)估不同α參數(shù)下的最優(yōu)決策樹(shù)模型,選擇測(cè)試誤差最小的最優(yōu)決策樹(shù)模型和相應(yīng)的正則化參數(shù)α。


          決策樹(shù)的優(yōu)缺點(diǎn)分析


          優(yōu)點(diǎn):

          算法簡(jiǎn)單,模型具有很強(qiáng)的解釋性

          可以用于分類(lèi)和回歸問(wèn)題


          缺點(diǎn):

          決策樹(shù)模型很容易出現(xiàn)過(guò)擬合現(xiàn)象,即訓(xùn)練數(shù)據(jù)集的訓(xùn)練誤差很小,測(cè)試數(shù)據(jù)集的測(cè)試誤差很大,且不同的訓(xùn)練數(shù)據(jù)集構(gòu)建的模型相差也很大。實(shí)際項(xiàng)目中,我們往往不是單獨(dú)使用決策樹(shù)模型,為了避免決策樹(shù)的過(guò)擬合,需對(duì)決策樹(shù)結(jié)合集成算法使用,如bagging算法和boosting算法。

          參考:

          李航《統(tǒng)計(jì)學(xué)習(xí)方法》


          END



          雙一流大學(xué)研究生團(tuán)隊(duì)創(chuàng)建,專(zhuān)注于目標(biāo)檢測(cè)與深度學(xué)習(xí),希望可以將分享變成一種習(xí)慣!

          整理不易,點(diǎn)贊三連↓

          瀏覽 99
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  一级黄色日逼视频 | 日韩三级乱伦 | 乱伦天堂H | 性猛交ⅩXXXx | 亚洲无码系列 |