決策樹、隨機森林、bagging、boosting、Adaboost、GBDT、XGBoost總結(jié)
一. 決策樹
信息熵越小,數(shù)據(jù)集
的純度越大
上建立決策樹,數(shù)據(jù)有
個類別:
表示第K類樣本的總數(shù)占數(shù)據(jù)集D樣本總數(shù)的比例。
,
二. 隨機森林
三. GBDT和XGBoost
計算的是當前數(shù)據(jù)下,模型的分類誤差率,模型的系數(shù)值是基于分類誤差率的
point的候選,遍歷所有的候選分裂點來找到最佳分裂點。
來源:https://zhuanlan.zhihu.com/p/75468124
評論
圖片
表情
