哈工大劉挺:自然語言處理中的可解釋性問題!
“知其然,亦知其所以然”是現(xiàn)代計算機科學(xué)家針對神經(jīng)網(wǎng)絡(luò)可解釋性問題追逐努力的方向和夢想。針對自然語言處理中的可解釋性問題,哈爾濱工業(yè)大學(xué)劉挺教授在2022北京智源大會報告中做了詳盡的解讀。首先介紹了自然語言處理中的可解釋性概念,分類及研究可解釋性的必要性,重點介紹了可解釋自然語言處理中的三種方法,包括白盒透明模型的設(shè)計、黑盒事后解釋方法以及灰盒融合可解釋要素方法。最后,劉挺教授提出了可解釋性的白盒模型設(shè)計以及可解釋性評估等未來發(fā)展的挑戰(zhàn)和研究方向。(注:本文由第三方整理,未經(jīng)本人審閱)

劉挺,哈爾濱工業(yè)大學(xué)教授,哈工大計算學(xué)部主任兼計算機學(xué)院院長、自然語言處理研究所所長











基于注意力機制為閱讀理解任務(wù)提供可解釋性也屬于「事后解釋方法」。這里面主要探討注意力機制是否能夠解釋預(yù)訓(xùn)練模型的運行機制。研究者采用了一個包含四部分的注意力矩陣,Q2 代表問題到問題;P2 代表篇章理解;Q2P是從問題到篇章;尋找答案的線索;P2Q是對答案進行驗證。研究者分別對這幾個部分進行注意力機制的分析。





針對可解釋性評價的挑戰(zhàn),劉挺教授團隊也提出了兩個針對可解釋性評價的數(shù)據(jù)集,分別是可解釋性閱讀理解數(shù)據(jù)集ExpMRC和可解釋的因果推理數(shù)據(jù)集。
灰盒融合可解釋要素方法


總結(jié)和展望
整理不易,點贊三連↓
評論
圖片
表情
