<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          基于梯度提升(Boosting )的回歸樹簡介

          共 541字,需瀏覽 2分鐘

           ·

          2022-05-18 23:40


          來源DeepHub IMBA

          本文約500,建議閱讀5分鐘

          Boosting 是一種松散的策略,它將多個簡單模型組合成一個復合模型。


          Boosting 是一種松散的策略,它將多個簡單模型組合成一個復合模型。這個想法的理論來自于隨著我們引入更多的簡單模型,整個模型會變得越來越強大。在 boosting 中,簡單模型稱為弱模型或弱學習器。在回歸的背景下,第一個簡單模型只是一個常數(shù),而隨后的簡單模型是“回歸樹”。


          什么是回歸樹呢?它是用于回歸的決策樹!最簡單通俗的解釋就是決策樹是一些if語句組成的樹型結(jié)構(gòu),這些if的判斷條件并不是我們?nèi)斯な謩又付ǖ亩峭ㄟ^使用數(shù)據(jù)訓練自動生成的。


          梯度提升通過將一個個回歸樹進行整合可以使模型預測變得更好。


          通過下圖的執(zhí)行流程整個過程構(gòu)成了解決回歸問題的基本架構(gòu)。


          最后總結(jié):

          1、通過簡單的最小化得到“最弱的學習者”。通常情況下,最弱的學習者是我們訓練最終學習者的數(shù)據(jù)集中所有值的平均值
          2、然后根據(jù)需要向最弱的學習器添加盡可能多的回歸樹,并在添加這些回歸樹學習器時改進預測(計算類似于梯度下降中的學習率的乘數(shù),并且該乘數(shù)與回歸樹相乘)
          3、 一旦獲得了足夠數(shù)量的樹,就會計算整合成最終的“強學習器”。

          編輯:于騰凱



          瀏覽 12
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  日本A在线播放 | 中文丰满亲子伦在线观看 | 在线观看免费黄色视频网站 | 超碰888 | 肖遥五月天操逼 |