終于有人把可解釋機器學習講明白了

導讀:為了解決模型的“黑盒”問題,科學家們提出了可解釋機器學習。除了預測的精準性之外,可解釋性也是機器學習模型是否值得信賴的重要衡量標準。




降低模型結(jié)構(gòu)的復雜度,如減少樹模型的深度,以犧牲模型的精度換取可解釋性; 保持模型原有的精度,在模型訓練完之后,利用事后輔助的歸因解析方法及可視化工具,來獲得模型的可解釋性。
在保證高水平學習表現(xiàn)的同時,實現(xiàn)更具可解釋性的模型; 讓我們更理解、信任并有效地使用模型。

干貨直達??
評論
圖片
表情
