關(guān)于機器學(xué)習(xí)模型的可解釋性算法!

來源:Datawhale 本文約1400字,建議閱讀5分鐘
本文介紹目前常見的幾種可以提高機器學(xué)習(xí)模型的可解釋性的技術(shù)。
Partial Dependence Plot (PDP);
Individual Conditional Expectation (ICE)
Permuted Feature Importance
Global Surrogate
Local Surrogate (LIME)
Shapley Value (SHAP)

的值y軸表示預(yù)測值。陰影區(qū)域中的實線顯示了平均預(yù)測如何隨
值的變化而變化。PDP能很直觀地顯示平均邊際效應(yīng),因此可能會隱藏異質(zhì)效應(yīng)。例如,一個特征可能與一半數(shù)據(jù)的預(yù)測正相關(guān),與另一半數(shù)據(jù)負相關(guān)。那么PDP圖將只是一條水平線。


首先,我們使用經(jīng)過訓(xùn)練的黑盒模型對數(shù)據(jù)集進行預(yù)測; 然后我們在該數(shù)據(jù)集和預(yù)測上訓(xùn)練可解釋的模型。
注:代理模型可以是任何可解釋的模型:線性模型、決策樹、人類定義的規(guī)則等。

由于代理模型僅根據(jù)黑盒模型的預(yù)測而不是真實結(jié)果進行訓(xùn)練,因此全局代理模型只能解釋黑盒模型,而不能解釋數(shù)據(jù)。


https://www.twosigma.com/articles/interpretability-methods-in-machine-learning-a-brief-survey/
編輯:于騰凱
校對:林亦霖
評論
圖片
表情
