<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          6 個機器學習可解釋性框架!

          共 2470字,需瀏覽 5分鐘

           ·

          2022-08-29 10:12

          推薦關(guān)注↓

          作者 | Moez Ali

          來源 | DeepHub IMBA


          隨著人工智能的發(fā)展為了解決具有挑戰(zhàn)性的問題,人們創(chuàng)造了更復(fù)雜、更不透明的模型。AI就像一個黑匣子,能自己做出決定,但是人們并不清楚其中緣由。

          建立一個AI模型,輸入數(shù)據(jù),然后再輸出結(jié)果,但有一個問題就是我們不能解釋AI為何會得出這樣的結(jié)論。需要了解AI如何得出某個結(jié)論背后的原因,而不是僅僅接受一個在沒有上下文或解釋的情況下輸出的結(jié)果。


          可解釋性旨在幫助人們理解:


          • 如何學習的?
          • 學到了什么?
          • 針對一個特定輸入為什么會做出如此決策?
          • 決策是否可靠?

          在本文中,將介紹6個用于機器學習可解釋性的Python框架。


          SHAP


          SHapley Additive explanation (SHapley Additive explanation)是一種解釋任何機器學習模型輸出的博弈論方法。它利用博弈論中的經(jīng)典Shapley值及其相關(guān)擴展將最優(yōu)信貸分配與局部解釋聯(lián)系起來(詳見論文的細節(jié)和引用

          以前寫過一篇文章,用過SHAP這個庫:

          基于隨機森林模型的心臟病患者預(yù)測分類

          數(shù)據(jù)集中每個特征對模型預(yù)測的貢獻由Shapley值解釋。Lundberg和Lee的SHAP算法最初發(fā)表于2017年,這個算法被社區(qū)在許多不同的領(lǐng)域廣泛采用。



          使用pip或conda安裝shap庫。


          # install with pippip install shap
          # install with condaconda install -c conda-forge shap

          使用Shap庫構(gòu)建瀑布圖


          使用Shap庫構(gòu)建Beeswarm圖


          使用Shap庫構(gòu)建部分依賴圖


          LIME


          在可解釋性領(lǐng)域,最早出名的方法之一是LIME。它可以幫助解釋機器學習模型正在學習什么以及為什么他們以某種方式預(yù)測。Lime目前支持對表格的數(shù)據(jù),文本分類器和圖像分類器的解釋。


          知道為什么模型會以這種方式進行預(yù)測對于調(diào)整算法是至關(guān)重要的。借助LIME的解釋,能夠理解為什么模型以這種方式運行。如果模型沒有按照計劃運行,那么很可能在數(shù)據(jù)準備階段就犯了錯誤。



          使用pip安裝:



          pip install lime
          LIME 構(gòu)建的局部解釋圖


          LIME構(gòu)建的Beeswarm 圖


          Shapash


          “ Shapash是一個使機器學習對每個人都可以進行解釋和理解Python庫。Shapash提供了幾種類型的可視化,顯示了每個人都能理解的明確標簽。數(shù)據(jù)科學家可以更輕松地理解他們的模型并分享結(jié)果。最終用戶可以使用最標準的摘要來理解模型是如何做出判斷的。”


          為了表達數(shù)據(jù)中包含故事、見解和模型的發(fā)現(xiàn),互動性和漂亮的圖表必不可少。業(yè)務(wù)和數(shù)據(jù)科學家/分析師向AI/ML結(jié)果展示和互動的最佳方法是將其可視化并且放到web中。Shapash庫可以生成交互式儀表盤,并收集了許多可視化圖表。與外形/石灰解釋性有關(guān)。它可以使用SHAP/Lime作為后端,也就是說它只提供了更好看的圖表。


          使用Shapash構(gòu)建特征貢獻圖


          使用Shapash庫創(chuàng)建的交互式儀表板


          使用Shapash構(gòu)建的局部解釋圖


          InterpretML


          InterpretML是一個開源的Python包,它向研究人員提供機器學習可解釋性算法。InterpretML支持訓(xùn)練可解釋模型(glassbox),以及解釋現(xiàn)有的ML管道(blackbox)。


          InterpretML展示了兩種類型的可解釋性:glassbox模型——為可解釋性設(shè)計的機器學習模型(如:線性模型、規(guī)則列表、廣義可加模型和黑箱可解釋性技術(shù)——用于解釋現(xiàn)有系統(tǒng)(如:部分依賴,LIME

          使用統(tǒng)一的API并封裝多種方法,擁有內(nèi)置的、可擴展的可視化平臺,該包使研究人員能夠輕松地比較可解釋性算法。InterpretML還包括了explanation Boosting Machine的第一個實現(xiàn),這是一個強大的、可解釋的、glassbox模型,可以像許多黑箱模型一樣精確。


          使用InterpretML構(gòu)建的局部解釋交互式圖


          使用InterpretML構(gòu)建的全局解釋圖


          ELI5


          ELI5是一個可以幫助調(diào)試機器學習分類器并解釋它們的預(yù)測的Python庫。目前支持以下機器學習框架:


          • scikit-learn
          • XGBoost、LightGBM CatBoost
          • Keras

          ELI5有兩種主要的方法來解釋分類或回歸模型:


          • 檢查模型參數(shù)并說明模型是如何全局工作的;
          • 檢查模型的單個預(yù)測并說明什么模型會做出這樣的決定。

          使用ELI5庫生成全局權(quán)值


          使用ELI5庫生成局部權(quán)重


          OmniXAI


          OmniXAI (Omni explained AI的簡稱),是Salesforce最近開發(fā)并開源的Python庫。它提供全方位可解釋的人工智能和可解釋的機器學習能力來解決實踐中機器學習模型在產(chǎn)生中需要判斷的幾個問題。對于需要在ML過程的各個階段解釋各種類型的數(shù)據(jù)、模型和解釋技術(shù)的數(shù)據(jù)科學家、ML研究人員,OmniXAI希望提供一個一站式的綜合庫,使可解釋的AI變得簡單。



          以下是OmniXAI提供的與其他類似庫的對比:



          最后,下面是這6個框架的官方地址:


          https://shap.readthedocs.io/en/latest/index.html
          https://github.com/marcotcr/lime
          https://shapash.readthedocs.io/en/latest/
          https://interpret.ml/
          https://eli5.readthedocs.io/
          https://github.com/salesforce/OmniXAI

          長按或掃描下方二維碼,后臺回復(fù):加群,即可申請入群。一定要備注:來源+研究方向+學校/公司,否則不拉入群中,見諒!

          長按三秒,進入后臺


          推薦閱讀

          瀏覽 64
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  无码看逼| 日韩在线三级片 | 欧美变态拉屎操逼网站 | 国产精品久久综合色 | 黄色小视频免费看 |