決策樹、隨機(jī)森林、bagging、boosting、adaboost、gbdt、xgboost總結(jié)
作者:ChrisCao
https://zhuanlan.zhihu.com/p/75468124
一. 決策樹

1.ID3算法:以信息增益為準(zhǔn)則來選擇最優(yōu)劃分屬性
?信息熵越小,數(shù)據(jù)集?
?的純度越大
?上建立決策樹,數(shù)據(jù)有?
?個(gè)類別:
?表示第K類樣本的總數(shù)占數(shù)據(jù)集D樣本總數(shù)的比例。2.C4.5基于信息增益率準(zhǔn)則 選擇最有分割屬性的算法
?,?
3.CART:以基尼系數(shù)為準(zhǔn)則選擇最優(yōu)劃分屬性,可用于分類和回歸

二.隨機(jī)森林
1.構(gòu)建組合分類器的好處:





三、GBDT和XGBoost
1.在講GBDT和XGBoost之前先補(bǔ)充Bagging和Boosting的知識(shí)。



?計(jì)算的是當(dāng)前數(shù)據(jù)下,模型的分類誤差率,模型的系數(shù)值是基于分類誤差率的

2.GBDT


3.XGBoost








point的候選,遍歷所有的候選分裂點(diǎn)來找到最佳分裂點(diǎn)。
推薦閱讀
決策樹可視化,被驚艷到了! 開發(fā)機(jī)器學(xué)習(xí)APP,太簡(jiǎn)單了 周志華教授:關(guān)于深度學(xué)習(xí)的一點(diǎn)思考 200 道經(jīng)典機(jī)器學(xué)習(xí)面試題總結(jié) 卷積神經(jīng)網(wǎng)絡(luò)(CNN)數(shù)學(xué)原理解析 收手吧,華強(qiáng)!我用機(jī)器學(xué)習(xí)幫你挑西瓜
如有收獲,歡迎三連??
評(píng)論
圖片
表情
