本文以 A Survey on Neural Network Interpretability 讀后感為主,加上自身的補充,淺談神經(jīng)網(wǎng)絡(luò)的可解釋性。
論文:https://arxiv.org/abs/2012.14261
本文按照以下的章節(jié)進(jìn)行組織:
人工智能可解釋性的背景意義
神經(jīng)網(wǎng)絡(luò)可解釋性的分類
總結(jié)
01
人工智能可解釋性的背景意義1.1 什么是可解釋性Interpretability (of a DNN) is the ability to provide explanations in understandable terms to a human. F Doshi-Velez & B Kim, 2017
解釋(Explanations),是指需要用某種語言來描述和注解
理想情況下,嚴(yán)謹(jǐn)?shù)臄?shù)學(xué)符號-邏輯規(guī)則是最好的解釋(D Pedreschi et al., 2019)。實際上人們往往不強求“完整的解釋”,只需要關(guān)鍵信息和一些先驗知識
神經(jīng)網(wǎng)絡(luò)可解釋性的分類2.1 按照邏輯規(guī)則解釋(Rule as Explanation)圖左是一顆關(guān)于判斷西瓜好壞的決策樹,經(jīng)過DFS后,我們可以抽取出右圖的規(guī)則。而對于神經(jīng)網(wǎng)絡(luò),我們是否也可以類似決策樹這樣做呢? 答案是肯定的。 第一種方法是分解法,遍歷所有特征的排列組合分解法最簡單,但是缺點也是顯而易見的,就是時間復(fù)雜度太高,雖然KT算法有所優(yōu)化,但是指數(shù)形式的復(fù)雜度還是難以投入實際使用。于是我們引入第二種方法:教育法[1] DecText-決策樹抽取器,主要采用經(jīng)過黑箱子的數(shù)據(jù)來抽取黑箱子的規(guī)則,并且與其他決策樹不同的是,該方法除了使用標(biāo)記數(shù)據(jù)還可以使用未標(biāo)記數(shù)據(jù)以及隨機數(shù)據(jù),只要經(jīng)過神經(jīng)網(wǎng)絡(luò)黑箱子都可以獲得標(biāo)簽。對比僅用訓(xùn)練集,由于傳統(tǒng)決策樹進(jìn)行生成葉子比生成其根的可信度還要低(因為能用于劃分界限的數(shù)據(jù)越來越少)。所以DecText有一個優(yōu)勢就是可以利用更多的無標(biāo)記數(shù)據(jù)甚至隨機數(shù)據(jù)進(jìn)行補充。但是一般論文也不會提及到自身設(shè)計的大多數(shù)缺點。例如,這里我認(rèn)為有兩大缺點。一、無標(biāo)記數(shù)據(jù)或者隨機數(shù)據(jù)其實有很多是超過解釋的意義,例如人臉識別,如果我們倒入一些不及格的人臉甚至隨機的圖像,決策樹也會對這些圖像進(jìn)行開枝散葉,降低了真正解釋人臉的枝葉的占比。二、決策樹不能表達(dá)太深的網(wǎng)絡(luò),決策樹越深,性能會急劇下降,可解釋性也越差。Tree Regulartion[2]提出了樹正則的方法,來抑制了樹的深度。樹正則通過引入深度損失正則項,在優(yōu)化時候會抑制樹的深度。而樹的深度則是通過一個簡單的預(yù)估網(wǎng)絡(luò)進(jìn)行預(yù)估,需要的參數(shù)就是主網(wǎng)絡(luò)的參數(shù)。2.2 按照語義進(jìn)行解釋類比人類開始對細(xì)胞解釋的時候,無法一下子直接從細(xì)胞本身理解這個細(xì)胞的類別或者功能,但是可以從細(xì)胞群或者組織(例如表皮細(xì)胞組織)來從宏觀角度了解細(xì)胞的作用。神經(jīng)網(wǎng)絡(luò)亦是如此。例如卷積神經(jīng)網(wǎng)絡(luò),淺層的卷積網(wǎng)絡(luò)往往關(guān)注更基礎(chǔ)的圖像信息例如紋理、顏色等,而越往上層則越能抽象出更豐富的語義,例如人臉識別的眼睛、鼻子等。其中經(jīng)典代表就是計算機視覺中的經(jīng)典方法-可視化[3]可視化的方法非常多,比如說有一個華人的博士就可視化了CNN,把每一層都展示得非常清楚,只需要在網(wǎng)頁上點擊對于的神經(jīng)元,就可以看到工作流程。右邊是一位維也納的小哥,本來搞unity3D特效開發(fā)的,他把整個CNN網(wǎng)絡(luò)用3d的形式可視化了出來。
cnn_visual
featuremap_layout
另外一種主動的按照語義進(jìn)行解釋的代表作:可解釋卷積神經(jīng)網(wǎng)絡(luò)[4](Interpretable convolutional neural networks.)與傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)不同的是,ICNN的每一個卷積核盡量只代表一種概念,例如,傳統(tǒng)的卷積核對貓的頭或者腳都有較大的激活值,而ICNN只能選擇最大的一種。2.3 通過示例解釋這種方法容易理解,是一種直觀方法:尋找和待解釋的樣本最“相似”的一個訓(xùn)練樣本,典型的代表作 Understanding black-box predictions via inflfluence functions,[5]2.4 按照屬性解釋按照屬性解釋目前內(nèi)容上最。如前面提及到,決策樹等透明模型難以模仿復(fù)雜的神經(jīng)網(wǎng)絡(luò),那怎么解決呢?針對此問題研究的代表作有:Why should i trust you?: Explaining the predictions of any classififier[6]由于LIME不介入模型的內(nèi)部,需要不斷的擾動樣本特征,這里所謂的樣本特征就是指圖片中一個一個的像素了。但如果LIME采樣的特征空間太大的話,效率會非常低,而一張普通圖片的像素少說也有上萬個。若直接把每個像素視為一個特征,采樣的空間過于龐大,嚴(yán)重影響效率;如果少采樣一些,最終效果又會比較差。所以針對圖像任務(wù)使用LIME時還需要一些特別的技巧,也就是考慮圖像的空間相關(guān)和連續(xù)的特性。不考慮一些極小特例的情況下,圖片中的物體一般都是由一個或幾個連續(xù)的像素塊構(gòu)成,所謂像素塊是指具有相似紋理、顏色、亮度等特征的相鄰像素構(gòu)成的有一定視覺意義的不規(guī)則像素塊,我們稱之為超像素。下面提供一些主動干預(yù)型的方法,如Dual-net[7]其他的還有:用意想空間的對話系統(tǒng)[8]這種解釋的類型是最有深度而且也是用戶最容易理解的。但是對AI模型和訓(xùn)練難度也更高了。目前這方面的研究屈指可數(shù)。
03
可解釋性總結(jié)參考
“Extracting Decision Trees From Trained Neural Networks”. SIGKDD. July 23-26,2002 https://dl.acm.org/doi/10.1145/775047.775113M. Wu, S. Parbhoo, M. C. Hughes, R. Kindle, L. A. Celi, M. Zazzi, V. Roth, and F. Doshi-Velez, “Regional tree regularization for interpretability in deep neural networks.” in AAAI, 2020, pp. 6413–6421. https://arxiv.org/abs/1908.04494K. Simonyan, A. Vedaldi, and A. Zisserman, “Deep inside convolutional networks: Visualising image classification models and saliency maps,” arXiv preprint arXiv:1312.6034, 2013.Q. Zhang, Y. Nian Wu, and S.-C. Zhu, “Interpretable convolutional neural networks,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018.P. W. Koh and P. Liang, “Understanding black-box predictions via influence functions,” in Proceedings of the 34th International Conference on Machine Learning-Volume 70, 2017.M. T. Ribeiro, S. Singh, and C. Guestrin, “Why should i trust you?: Explaining the predictions of any classifier,” in Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining, 2016.M. Wojtas and K. Chen, “Feature importance ranking for deep learning,” Advances in Neural Information Processing Systems, vol. 33, 2020.Open Domain Dialogue Generation with Latent Images Z Yang, W Wu, H Hu, C Xu, Z Li - arXiv preprint arXiv:2004.01981, 2020 - arxiv.org https://arxiv.org/abs/2004.01981