每周一書|《Hands-On Gradient Boosting with XGBoost and scikit-learn》
《每周一書》專欄·第4篇
文 | Pyer
831字 | 3分鐘閱讀
【數(shù)據(jù)科學(xué)與人工智能】開通了Python群,大家可以相互學(xué)習(xí)和交流。請掃描下方二維碼,備注:Python,添加我為好友,誠邀你入群,一起進(jìn)步。
最近,我在做工作復(fù)盤的時候,想到了一個問題。
xgboost怎么理解和應(yīng)用?xgboost和gbdt,lightGBM有什么異同?
朋友們,關(guān)于這個問題,大家有什么想法和認(rèn)識,請留言,或者加入Python群,參與討論和交流。我為了全面地理解算法xgboost,找了許多資料,包括算法的論文、算法的相關(guān)內(nèi)容、算法的設(shè)計與實現(xiàn)以及應(yīng)用等。xgboost是boost算法家族的一個成員,全程是【極限梯度提升算法】,適合處理表格化數(shù)據(jù),具有高效率,高準(zhǔn)確度,在許多場景里發(fā)揮出積極作用。
本周,我要分享的書籍是與xgboost緊密相關(guān)的。
每周一書:《Hands-On Gradient Boosting with XGBoost and scikit-learn》

這本書包括兩個部分,第一部分,介紹集成學(xué)習(xí)的兩種主流思想,Bagging和Boosting,包括機器學(xué)習(xí)基礎(chǔ)、決策樹深入理解、Bagging與隨機森林算法和梯度提升到xgboost;第二部分,詳細(xì)介紹xgboost,包括xgboost的原理、超參數(shù)、優(yōu)化以及應(yīng)用。同時,本書對于相關(guān)內(nèi)容,也提供了可以進(jìn)一步拓展和延伸的資料鏈接,以幫助你更全面地學(xué)習(xí),也滿足那深刻學(xué)習(xí)的好奇心。這本書,具有很強的實用性,基于Python語言和相關(guān)Python庫,通過編寫程式,指導(dǎo)我們從實踐角度來理解和應(yīng)用這些重要的算法,感受和體會這些算法的魅力和價值。
通過對xgboost算法深刻理解和認(rèn)識,我們可以發(fā)掘,機器學(xué)習(xí)算法里面的一個重要家族,即樹模型家族。簡單說,就是以決策樹為基礎(chǔ),融合各種學(xué)習(xí)思想,所產(chǎn)生的一系列算法。決策樹算法及其變體,對于從數(shù)據(jù)中學(xué)習(xí),具有易理解,好解釋,方便部署和實施等優(yōu)勢,同時,算法的各方面性能指標(biāo),也在不斷優(yōu)化和改進(jìn)中。所以,你若是想學(xué)習(xí)和利用機器學(xué)習(xí),建議你研究和應(yīng)用樹模型這個家族,它可以幫助你完成很多任務(wù)和創(chuàng)造多方價值。
若是喜歡閱讀電子版書籍,請掃描下方二維碼,進(jìn)入公眾號,回復(fù)關(guān)鍵詞:20210314,獲取資源領(lǐng)取方式。
每周一書
公眾號推薦
