<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          綜述 | 神經(jīng)網(wǎng)絡(luò)的可解釋性

          共 5681字,需瀏覽 12分鐘

           ·

          2021-08-19 18:00

          點擊上方機器學(xué)習(xí)與生成對抗網(wǎng)絡(luò)”,關(guān)注星標(biāo)

          獲取有趣、好玩的前沿干貨!


          報道|人工智能前沿講習(xí)  作者|知乎 機器學(xué)習(xí)小談

          地址|https://zhuanlan.zhihu.com/p/368755357

          本文以 A Survey on Neural Network Interpretability 讀后感為主,加上自身的補充,淺談神經(jīng)網(wǎng)絡(luò)的可解釋性。

          論文:https://arxiv.org/abs/2012.14261

          本文按照以下的章節(jié)進(jìn)行組織:
          1. 人工智能可解釋性的背景意義
          2. 神經(jīng)網(wǎng)絡(luò)可解釋性的分類
          3. 總結(jié)


          01

          人工智能可解釋性的背景意義
          1.1 什么是可解釋性
          Interpretability (of a DNN) is the ability to provide explanations in understandable terms to a human. F Doshi-Velez & B Kim, 2017
          • 解釋(Explanations),是指需要用某種語言來描述和注解
          理想情況下,嚴(yán)謹(jǐn)?shù)臄?shù)學(xué)符號-邏輯規(guī)則是最好的解釋(D Pedreschi et al., 2019)。實際上人們往往不強求“完整的解釋”,只需要關(guān)鍵信息和一些先驗知識
          • 可解釋的邊界(Explainable Boundary),是指可解釋性能夠提供解釋的程度
          來自XAI的:對于不同的聽眾,解釋的深度也有所不同,應(yīng)該是需求而定。例如:為什么你這么聰明?因為我喜歡吃魚。為什么吃魚會聰明?因為魚類富含DHA。為什么DHA聰明?...... 因為根據(jù)不同的人群,我們的可解釋的工作也不一樣。例如給大眾解釋吃魚能夠聰明就行了,因為吃魚能夠聰明我們很多人已經(jīng)從小到大耳熟能詳了。如果我們給專業(yè)人士解釋DHA為什么會是大腦聰明,我們身邊很多人也答不出來,這已經(jīng)遠(yuǎn)超出我們計算機這個領(lǐng)域了。當(dāng)然,可解釋的這種邊界越深,這個模型的能力也越強。
          • 可理解的術(shù)語(Understandable Terms),是指構(gòu)成解釋的基本單元
          不同領(lǐng)域的模型解釋需要建立在不同的領(lǐng)域術(shù)語之上,不可能或者目前難以用數(shù)學(xué)邏輯符號來解釋。例如計算機視覺中的image patches,NLP中的單詞等。而可理解的術(shù)語可以理解為計算機跟我們?nèi)祟惸軌驕贤ǖ恼Z言。以前我們很多研究關(guān)于人類跟計算機表達(dá)的語言例如計算機指令,現(xiàn)在是反過來計算機根據(jù)現(xiàn)有的模型給我們解釋
          1.2 為什么需要可解釋性
          • 高可靠性的要求
          a)神經(jīng)網(wǎng)絡(luò)在實踐中經(jīng)常有難以預(yù)測的錯誤(進(jìn)一步的研究是對抗樣本攻擊與防御),這對于要求可靠性較高的系統(tǒng)很危險
          b)可解釋性有助于發(fā)現(xiàn)潛在的錯誤;也可以通過debug而改進(jìn)模型
          • 倫理/法規(guī)的要求
          AI醫(yī)療:目前一般只作為輔助性的工具,是因為一個合格的醫(yī)療系統(tǒng)必須是透明的、可理解的、可解釋的,可以獲得醫(yī)生和病人的信任。
          司法決策:面對紛繁復(fù)雜的事實類型,除了法律條文,還需要融入社會常識、人文因素等。因此,AI在司法決策的事后,必須要給出法律依據(jù)和推理過程。
          • 作為其他科學(xué)研究的工具
          科學(xué)研究可以發(fā)現(xiàn)新知識,可解釋性正是用以揭示背后原理。


          02

          神經(jīng)網(wǎng)絡(luò)可解釋性的分類
          2.1 按照邏輯規(guī)則解釋(Rule as Explanation)
          圖左是一顆關(guān)于判斷西瓜好壞的決策樹,經(jīng)過DFS后,我們可以抽取出右圖的規(guī)則。而對于神經(jīng)網(wǎng)絡(luò),我們是否也可以類似決策樹這樣做呢?
          答案是肯定的。
          第一種方法是分解法,遍歷所有特征的排列組合
          分解法最簡單,但是缺點也是顯而易見的,就是時間復(fù)雜度太高,雖然KT算法有所優(yōu)化,但是指數(shù)形式的復(fù)雜度還是難以投入實際使用。于是我們引入第二種方法:教育法[1]
          DecText-決策樹抽取器,主要采用經(jīng)過黑箱子的數(shù)據(jù)來抽取黑箱子的規(guī)則,并且與其他決策樹不同的是,該方法除了使用標(biāo)記數(shù)據(jù)還可以使用未標(biāo)記數(shù)據(jù)以及隨機數(shù)據(jù),只要經(jīng)過神經(jīng)網(wǎng)絡(luò)黑箱子都可以獲得標(biāo)簽。對比僅用訓(xùn)練集,由于傳統(tǒng)決策樹進(jìn)行生成葉子比生成其根的可信度還要低(因為能用于劃分界限的數(shù)據(jù)越來越少)。所以DecText有一個優(yōu)勢就是可以利用更多的無標(biāo)記數(shù)據(jù)甚至隨機數(shù)據(jù)進(jìn)行補充。但是一般論文也不會提及到自身設(shè)計的大多數(shù)缺點。例如,這里我認(rèn)為有兩大缺點。一、無標(biāo)記數(shù)據(jù)或者隨機數(shù)據(jù)其實有很多是超過解釋的意義,例如人臉識別,如果我們倒入一些不及格的人臉甚至隨機的圖像,決策樹也會對這些圖像進(jìn)行開枝散葉,降低了真正解釋人臉的枝葉的占比。二、決策樹不能表達(dá)太深的網(wǎng)絡(luò),決策樹越深,性能會急劇下降,可解釋性也越差。
          Tree Regulartion[2]提出了樹正則的方法,來抑制了樹的深度。
          樹正則通過引入深度損失正則項,在優(yōu)化時候會抑制樹的深度。而樹的深度則是通過一個簡單的預(yù)估網(wǎng)絡(luò)進(jìn)行預(yù)估,需要的參數(shù)就是主網(wǎng)絡(luò)的參數(shù)。
          2.2 按照語義進(jìn)行解釋
          類比人類開始對細(xì)胞解釋的時候,無法一下子直接從細(xì)胞本身理解這個細(xì)胞的類別或者功能,但是可以從細(xì)胞群或者組織(例如表皮細(xì)胞組織)來從宏觀角度了解細(xì)胞的作用。神經(jīng)網(wǎng)絡(luò)亦是如此。例如卷積神經(jīng)網(wǎng)絡(luò),淺層的卷積網(wǎng)絡(luò)往往關(guān)注更基礎(chǔ)的圖像信息例如紋理、顏色等,而越往上層則越能抽象出更豐富的語義,例如人臉識別的眼睛、鼻子等。其中經(jīng)典代表就是計算機視覺中的經(jīng)典方法-可視化[3]
          可視化的方法非常多,比如說有一個華人的博士就可視化了CNN,把每一層都展示得非常清楚,只需要在網(wǎng)頁上點擊對于的神經(jīng)元,就可以看到工作流程。右邊是一位維也納的小哥,本來搞unity3D特效開發(fā)的,他把整個CNN網(wǎng)絡(luò)用3d的形式可視化了出來。

          cnn_visual

          featuremap_layout

          另外一種主動的按照語義進(jìn)行解釋的代表作:可解釋卷積神經(jīng)網(wǎng)絡(luò)[4](Interpretable convolutional neural networks.)與傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)不同的是,ICNN的每一個卷積核盡量只代表一種概念,例如,傳統(tǒng)的卷積核對貓的頭或者腳都有較大的激活值,而ICNN只能選擇最大的一種。
          2.3 通過示例解釋
          這種方法容易理解,是一種直觀方法:尋找和待解釋的樣本最“相似”的一個訓(xùn)練樣本,典型的代表作 Understanding black-box predictions via inflfluence functions,[5]
          2.4 按照屬性解釋
          按照屬性解釋目前內(nèi)容上最。如前面提及到,決策樹等透明模型難以模仿復(fù)雜的神經(jīng)網(wǎng)絡(luò),那怎么解決呢?針對此問題研究的代表作有:Why should i trust you?: Explaining the predictions of any classififier[6]
          由于LIME不介入模型的內(nèi)部,需要不斷的擾動樣本特征,這里所謂的樣本特征就是指圖片中一個一個的像素了。但如果LIME采樣的特征空間太大的話,效率會非常低,而一張普通圖片的像素少說也有上萬個。若直接把每個像素視為一個特征,采樣的空間過于龐大,嚴(yán)重影響效率;如果少采樣一些,最終效果又會比較差。所以針對圖像任務(wù)使用LIME時還需要一些特別的技巧,也就是考慮圖像的空間相關(guān)和連續(xù)的特性。不考慮一些極小特例的情況下,圖片中的物體一般都是由一個或幾個連續(xù)的像素塊構(gòu)成,所謂像素塊是指具有相似紋理、顏色、亮度等特征的相鄰像素構(gòu)成的有一定視覺意義的不規(guī)則像素塊,我們稱之為超像素。
          下面提供一些主動干預(yù)型的方法,如Dual-net[7]
          其他的還有:用意想空間的對話系統(tǒng)[8]
          這種解釋的類型是最有深度而且也是用戶最容易理解的。但是對AI模型和訓(xùn)練難度也更高了。目前這方面的研究屈指可數(shù)。


          03

          可解釋性總結(jié)
          參考
          “Extracting Decision Trees From Trained Neural Networks”. SIGKDD. July 23-26,2002 https://dl.acm.org/doi/10.1145/775047.775113M. Wu, S. Parbhoo, M. C. Hughes, R. Kindle, L. A. Celi, M. Zazzi, V. Roth, and F. Doshi-Velez, “Regional tree regularization for interpretability in deep neural networks.” in AAAI, 2020, pp. 6413–6421. https://arxiv.org/abs/1908.04494K. Simonyan, A. Vedaldi, and A. Zisserman, “Deep inside convolutional networks: Visualising image classification models and saliency maps,” arXiv preprint arXiv:1312.6034, 2013.Q. Zhang, Y. Nian Wu, and S.-C. Zhu, “Interpretable convolutional neural networks,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018.P. W. Koh and P. Liang, “Understanding black-box predictions via influence functions,” in Proceedings of the 34th International Conference on Machine Learning-Volume 70, 2017.M. T. Ribeiro, S. Singh, and C. Guestrin, “Why should i trust you?: Explaining the predictions of any classifier,” in Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining, 2016.M. Wojtas and K. Chen, “Feature importance ranking for deep learning,” Advances in Neural Information Processing Systems, vol. 33, 2020.Open Domain Dialogue Generation with Latent Images Z Yang, W Wu, H Hu, C Xu, Z Li - arXiv preprint arXiv:2004.01981, 2020 - arxiv.org https://arxiv.org/abs/2004.01981



          猜您喜歡:


          等你著陸!【GAN生成對抗網(wǎng)絡(luò)】知識星球!  

          CVPR 2021 | GAN的說話人驅(qū)動、3D人臉論文匯總

          CVPR 2021 | 圖像轉(zhuǎn)換 今如何?幾篇GAN論文

          【CVPR 2021】通過GAN提升人臉識別的遺留難題

          CVPR 2021生成對抗網(wǎng)絡(luò)GAN部分論文匯總

          經(jīng)典GAN不得不讀:StyleGAN

          最新最全20篇!基于 StyleGAN 改進(jìn)或應(yīng)用相關(guān)論文

          超100篇!CVPR 2020最全GAN論文梳理匯總!

          附下載 | 《Python進(jìn)階》中文版

          附下載 | 經(jīng)典《Think Python》中文版

          附下載 | 《Pytorch模型訓(xùn)練實用教程》

          附下載 | 最新2020李沐《動手學(xué)深度學(xué)習(xí)》

          附下載 | 《可解釋的機器學(xué)習(xí)》中文版

          附下載 |《TensorFlow 2.0 深度學(xué)習(xí)算法實戰(zhàn)》

          附下載 | 超100篇!CVPR 2020最全GAN論文梳理匯總!

          附下載 |《計算機視覺中的數(shù)學(xué)方法》分享

          瀏覽 42
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  w黄视频欧美精品韩日 | 91探花国产在线播放 | 手机毛片在线 | 亚洲 码AV波多野 | 亚洲黄色在线电影 |