CNN可解釋性再受關(guān)注,人類真能理解機器的思想嗎? | 一周AI最火論文

大數(shù)據(jù)文摘出品
作者:Christopher Dossman
編譯:Luna、李雷、云舟
嗚啦啦啦啦啦啦啦大家好,本周的AI Scholar Weekly欄目又和大家見面啦!
AI ScholarWeekly是AI領(lǐng)域的學術(shù)專欄,致力于為你帶來最新潮、最全面、最深度的AI學術(shù)概覽,一網(wǎng)打盡每周AI學術(shù)的前沿資訊。
每周更新,做AI科研,每周從這一篇開始就夠啦!
嗚啦啦啦啦啦啦啦大家好,本周的AI Scholar Weekly欄目又和大家見面啦!
AI ScholarWeekly是AI領(lǐng)域的學術(shù)專欄,致力于為你帶來最新潮、最全面、最深度的AI學術(shù)概覽,一網(wǎng)打盡每周AI學術(shù)的前沿資訊。
每周更新,做AI科研,每周從這一篇開始就夠啦!
本周關(guān)鍵詞:對象識別、CNN、文本識別
本周最佳學術(shù)研究
??
SOLO:按位置分割對象的方法
本文提出了一種新穎且極其簡單的圖像實例分割方法,稱為SOLO,這是一種直接實例分割框架,由澳大利亞阿德萊德大學和字節(jié)跳動 AI 實驗室的研究人員合作開發(fā)。
SOLO是一種端到端的深度學習架構(gòu),可以將原始輸入圖像直接映射到所需的實例蒙版,無需像自底向上的方法那樣進行分組后處理,也不需要像自頂向下的方法那樣進行邊界框檢測和RoI操作,減少了處理時間。
實驗結(jié)果:說明這是一個具有可靠性能且簡單靈活的實例分割框架,在準確性方面與Mask R-CNN持平,并且優(yōu)于最新的單階段實例分割器。
鑒于SOLO的簡單性,靈活性和強大的性能,研究人員希望SOLO可以成為實例分割和其他實例級別識別任務(wù)的基準。
Github傳送門:
原文:
https://arxiv.org/pdf/1912.04488v3.pdf
多元假設(shè)檢驗Python包
hyppo的全稱是HYPothesis Testing in PythOn,發(fā)音為“ Hippo”,是一個功能強大且可擴展的開源Python軟件包,用于進行包括獨立性、雙樣本和多樣本等多變量假設(shè)檢驗。
盡管做多元獨立性檢驗可以使用R軟件包,但其大多數(shù)接口與Python不兼容,無法使用。而hyppo則包含許多最新的多元檢驗?zāi)K,易于使用,且可以靈活擴展。
文檔及使用手冊:
https://hyppo.neurodata.io/
原文:
https://arxiv.org/pdf/1907.02088v5.pdf
可進行交互式計算性能分析的深度神經(jīng)網(wǎng)絡(luò)訓練工具
這篇最近發(fā)表的論文介紹了SKYLINE,一種用于DNN(深度神經(jīng)網(wǎng)絡(luò))訓練的交互式新工具,它支持編輯器內(nèi)性能分析,可視化和調(diào)試等功能。
SKYLINE充分利用了DNN模型訓練的特性,包括重復(fù)性,可預(yù)測性和代碼結(jié)構(gòu)性等,從而提供了與代碼相關(guān)的交互式性能展示。本文主要闡述了:
DNN訓練計算性能調(diào)試是深度學習開發(fā)人員面臨的重要問題
DNN訓練在計算性能上的特性可以應(yīng)用于新的交互式分析
SKYLINE是開源的,可幫助深度學習開發(fā)人員提升未來研究效率。
Github傳送門:
https://github.com/skylineprof/skyline。
原文:
https://arxiv.org/pdf/2008.06798v2.pdf
EASTER:一個高效且可擴展的文本識別器
這項工作提出了一種高效且可擴展的文本識別器(EASTER),可以在機器上打印的文字和手寫文本上執(zhí)行光學字符識別。
新模型利用了不重復(fù)的一維卷積層,從而能夠以更少的數(shù)據(jù)量進行并行訓練。
在對該體系結(jié)構(gòu)的多個變體和最小變體之一進行評估時,該識別器的性能與基于RNN的復(fù)雜選擇相當。使用20層最深變體的識別器優(yōu)于RNN架構(gòu),在基準測試數(shù)據(jù)集(如IIIT-5k和SVT)上有很大的優(yōu)勢。
研究人員還展示了在脫機手寫文本識別任務(wù)上,此識別器帶來的結(jié)果相比當前最佳結(jié)果有較大提升。他們介紹了具有擴充設(shè)置的數(shù)據(jù)生成管道,這個管道可以生成手寫和機器打印文本的綜合數(shù)據(jù)集。
原文:
https://arxiv.org/pdf/2008.07839v2.pdf
致力于CNN的準確可視化和可解釋性
為了更好地理解和使用卷積神經(jīng)網(wǎng)絡(luò)(CNN),CNN的可視化和解釋近年來引起了越來越多的關(guān)注。
本文介紹了一種新穎的可視化方法,稱為XGrad-CAM,該方法受敏感度和守恒原理的啟發(fā)。提供了清晰的數(shù)學解釋,填補了CAM可視化方法可解釋性的空白。
結(jié)果表明,就保守性和敏感性而言,XGrad-CAM是Grad-CAM的增強版本。與Grad-CAM ++和Ablation-CAM相比,它可以實現(xiàn)比Grad-CAM更好的可視化性能,并且具有區(qū)分類和易于實現(xiàn)的優(yōu)點。
Github傳送門:
https://github.com/Fu0511/XGrad-CAM
原文:
https://arxiv.org/pdf/2008.02312v4.pdf
其他爆款論文
是否將離線RL的豐富前景帶入現(xiàn)實應(yīng)用?Google AI應(yīng)對離線強化學習中的開放挑戰(zhàn):
https://ai.googleblog.com/2020/08/tackling-open-challenges-in-offline.html
CopyPose:一致的多視圖多對象6D姿勢估計:
https://www.di.ens.fr/willow/research/cosypose/
我們面臨的挑戰(zhàn)以及克服這些挑戰(zhàn)所需的專業(yè)知識——信托與醫(yī)療AI:
https://arxiv.org/pdf/2008.07734v1.pdf
保守離線強化學習Q-Learning:
https://arxiv.org/pdf/2006.04779v3.pdf
自動化機器學習評論——挑戰(zhàn)與機遇:
https://arxiv.org/pdf/2008.08516v1.pdf
學習資源
怎樣使用機器學習驅(qū)動商業(yè)價值:
https://pages.awscloud.com/glbl-gc-450-machine-learning-journey-ebook/
AI大事件
用于機器學習應(yīng)用程序的谷歌筆數(shù)字墨水識別API:
https://www.electronicsweekly.com/news/products/software-products/google-pens-digital-ink-recognition-api-machine-learning-apps-2020-08/
Socionext和大阪大學開發(fā)了新的深度學習方法,用于在弱光條件下進行目標檢測:
https://www.prnewswire.com/news-releases/socionext-and-osaka-university-develop-new-deep-learning-method-for-object-detection-in-low-light-conditions-301116092.html
零售行業(yè)的機器學習:
https://thedailychronicle.in/news/335883/machine-learning-in-retail-market-top-companies-trends-and-technology-2020-2029/

免!費!
阿里大數(shù)據(jù)訓練營重磅開啟!
賈揚清親自出品,阿里技術(shù)專家親自授課
3天get阿里大數(shù)據(jù)獨門絕學!
入門Flink、Spark等開源技術(shù)知識
更有實戰(zhàn)講解!
掃碼get你的專屬訓練營!

Christopher Dossman是Wonder Technologies的首席數(shù)據(jù)科學家,在北京生活5年。他是深度學習系統(tǒng)部署方面的專家,在開發(fā)新的AI產(chǎn)品方面擁有豐富的經(jīng)驗。除了卓越的工程經(jīng)驗,他還教授了1000名學生了解深度學習基礎(chǔ)。
LinkedIn:
https://www.linkedin.com/in/christopherdossman/




