一張圖了解機(jī)器學(xué)習(xí)

來源:DeepHub IMBA 本文約2300字,建議閱讀8分鐘?
本文介紹了機(jī)器學(xué)習(xí)的種類。
機(jī)器學(xué)習(xí)
有監(jiān)督學(xué)習(xí)
無監(jiān)督學(xué)習(xí)
強(qiáng)化學(xué)習(xí)

有監(jiān)督學(xué)習(xí)
Regression:回歸,輸出是連續(xù)值
Classification:分類,輸出是離散值
二元分類 Binary Classification
邏輯回歸
KNN
決策樹/隨機(jī)森林/提升樹
支持向量機(jī) SVM
樸素貝葉斯
多層感知機(jī)

多分類 Multi-class Classification
KNN
決策樹/隨機(jī)森林/提升樹
樸素貝葉斯
多層感知機(jī)

多標(biāo)簽分類 Multi-Label Classification
無監(jiān)督學(xué)習(xí)
K-Means(K均值)
DBSCAN
使用高斯混合模型(GMM)
Apriori算法
PCY算法
FP-Tree算法
XFP-Tree算法
GPApriori算法
強(qiáng)化學(xué)習(xí)

環(huán)境Environment ——代理運(yùn)行的物理世界 代理Agent ——也叫智能體,就是我們所寫的算法 行動(dòng)Action——代理產(chǎn)生的動(dòng)作 狀態(tài)State——代理的狀態(tài) 獎(jiǎng)勵(lì)Reward——來自環(huán)境的反饋,好的還是壞的 策略Policy ——將代理的狀態(tài)映射到動(dòng)作的方法,通過狀態(tài)選擇做什么行動(dòng) 價(jià)值Value ——代理在特定狀態(tài)下采取行動(dòng)將獲得的未來獎(jiǎng)勵(lì)
deephub譯者注
傳統(tǒng)的機(jī)器學(xué)習(xí):各種回歸
核方法:SVM等
貝葉斯模型:概率相關(guān)
樹型模型:決策樹、隨機(jī)森林、各種boosting
神經(jīng)網(wǎng)絡(luò):多層感知機(jī)、各種NN
評(píng)論
圖片
表情
