<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          CNN可解釋性再受關(guān)注,人類真能理解機器的思想嗎? | 一周AI最火論文

          共 3263字,需瀏覽 7分鐘

           ·

          2020-08-26 09:04

          大數(shù)據(jù)文摘出品

          作者:Christopher Dossman

          編譯:Luna、李雷、云舟

          嗚啦啦啦啦啦啦啦大家好,本周的AI Scholar Weekly欄目又和大家見面啦!

          AI ScholarWeekly是AI領(lǐng)域的學術(shù)專欄,致力于為你帶來最新潮、最全面、最深度的AI學術(shù)概覽,一網(wǎng)打盡每周AI學術(shù)的前沿資訊。

          每周更新,做AI科研,每周從這一篇開始就夠啦!


          本周關(guān)鍵詞:對象識別、CNN、文本識別


          本周最佳學術(shù)研究

          ??

          SOLO:按位置分割對象的方法


          本文提出了一種新穎且極其簡單的圖像實例分割方法,稱為SOLO,這是一種直接實例分割框架,由澳大利亞阿德萊德大學和字節(jié)跳動 AI 實驗室的研究人員合作開發(fā)。


          SOLO是一種端到端的深度學習架構(gòu),可以將原始輸入圖像直接映射到所需的實例蒙版,無需像自底向上的方法那樣進行分組后處理,也不需要像自頂向下的方法那樣進行邊界框檢測和RoI操作,減少了處理時間。


          實驗結(jié)果:說明這是一個具有可靠性能且簡單靈活的實例分割框架,在準確性方面與Mask R-CNN持平,并且優(yōu)于最新的單階段實例分割器。


          鑒于SOLO的簡單性,靈活性和強大的性能,研究人員希望SOLO可以成為實例分割和其他實例級別識別任務(wù)的基準。


          Github傳送門:

          https://github.com/aim-uofa/AdelaiDet/

          原文:

          https://arxiv.org/pdf/1912.04488v3.pdf


          多元假設(shè)檢驗Python包


          hyppo的全稱是HYPothesis Testing in PythOn,發(fā)音為“ Hippo”,是一個功能強大且可擴展的開源Python軟件包,用于進行包括獨立性、雙樣本和多樣本等多變量假設(shè)檢驗。


          盡管做多元獨立性檢驗可以使用R軟件包,但其大多數(shù)接口與Python不兼容,無法使用。而hyppo則包含許多最新的多元檢驗?zāi)K,易于使用,且可以靈活擴展。


          文檔及使用手冊:

          https://hyppo.neurodata.io/

          原文:

          https://arxiv.org/pdf/1907.02088v5.pdf


          可進行交互式計算性能分析的深度神經(jīng)網(wǎng)絡(luò)訓練工具


          這篇最近發(fā)表的論文介紹了SKYLINE,一種用于DNN(深度神經(jīng)網(wǎng)絡(luò))訓練的交互式新工具,它支持編輯器內(nèi)性能分析,可視化和調(diào)試等功能。


          SKYLINE充分利用了DNN模型訓練的特性,包括重復(fù)性,可預(yù)測性和代碼結(jié)構(gòu)性等,從而提供了與代碼相關(guān)的交互式性能展示。本文主要闡述了:


          DNN訓練計算性能調(diào)試是深度學習開發(fā)人員面臨的重要問題

          DNN訓練在計算性能上的特性可以應(yīng)用于新的交互式分析

          SKYLINE是開源的,可幫助深度學習開發(fā)人員提升未來研究效率。


          Github傳送門:

          https://github.com/skylineprof/skyline。

          原文:

          https://arxiv.org/pdf/2008.06798v2.pdf


          EASTER:一個高效且可擴展的文本識別器


          這項工作提出了一種高效且可擴展的文本識別器(EASTER),可以在機器上打印的文字和手寫文本上執(zhí)行光學字符識別。


          新模型利用了不重復(fù)的一維卷積層,從而能夠以更少的數(shù)據(jù)量進行并行訓練。


          在對該體系結(jié)構(gòu)的多個變體和最小變體之一進行評估時,該識別器的性能與基于RNN的復(fù)雜選擇相當。使用20層最深變體的識別器優(yōu)于RNN架構(gòu),在基準測試數(shù)據(jù)集(如IIIT-5k和SVT)上有很大的優(yōu)勢。


          研究人員還展示了在脫機手寫文本識別任務(wù)上,此識別器帶來的結(jié)果相比當前最佳結(jié)果有較大提升。他們介紹了具有擴充設(shè)置的數(shù)據(jù)生成管道,這個管道可以生成手寫和機器打印文本的綜合數(shù)據(jù)集。


          原文:

          https://arxiv.org/pdf/2008.07839v2.pdf


          致力于CNN的準確可視化和可解釋性


          為了更好地理解和使用卷積神經(jīng)網(wǎng)絡(luò)(CNN),CNN的可視化和解釋近年來引起了越來越多的關(guān)注。


          本文介紹了一種新穎的可視化方法,稱為XGrad-CAM,該方法受敏感度和守恒原理的啟發(fā)。提供了清晰的數(shù)學解釋,填補了CAM可視化方法可解釋性的空白。


          結(jié)果表明,就保守性和敏感性而言,XGrad-CAM是Grad-CAM的增強版本。與Grad-CAM ++和Ablation-CAM相比,它可以實現(xiàn)比Grad-CAM更好的可視化性能,并且具有區(qū)分類和易于實現(xiàn)的優(yōu)點。


          Github傳送門:

          https://github.com/Fu0511/XGrad-CAM

          原文:

          https://arxiv.org/pdf/2008.02312v4.pdf


          其他爆款論文


          是否將離線RL的豐富前景帶入現(xiàn)實應(yīng)用?Google AI應(yīng)對離線強化學習中的開放挑戰(zhàn):

          https://ai.googleblog.com/2020/08/tackling-open-challenges-in-offline.html


          CopyPose:一致的多視圖多對象6D姿勢估計:

          https://www.di.ens.fr/willow/research/cosypose/


          我們面臨的挑戰(zhàn)以及克服這些挑戰(zhàn)所需的專業(yè)知識——信托與醫(yī)療AI:

          https://arxiv.org/pdf/2008.07734v1.pdf


          保守離線強化學習Q-Learning:

          https://arxiv.org/pdf/2006.04779v3.pdf


          自動化機器學習評論——挑戰(zhàn)與機遇:

          https://arxiv.org/pdf/2008.08516v1.pdf


          學習資源


          怎樣使用機器學習驅(qū)動商業(yè)價值:

          https://pages.awscloud.com/glbl-gc-450-machine-learning-journey-ebook/


          AI大事件


          用于機器學習應(yīng)用程序的谷歌筆數(shù)字墨水識別API:

          https://www.electronicsweekly.com/news/products/software-products/google-pens-digital-ink-recognition-api-machine-learning-apps-2020-08/


          Socionext和大阪大學開發(fā)了新的深度學習方法,用于在弱光條件下進行目標檢測:

          https://www.prnewswire.com/news-releases/socionext-and-osaka-university-develop-new-deep-learning-method-for-object-detection-in-low-light-conditions-301116092.html


          零售行業(yè)的機器學習:

          https://thedailychronicle.in/news/335883/machine-learning-in-retail-market-top-companies-trends-and-technology-2020-2029/



          免!費!

          阿里大數(shù)據(jù)訓練營重磅開啟!

          賈揚清親自出品,阿里技術(shù)專家親自授課

          3天get阿里大數(shù)據(jù)獨門絕學!

          入門Flink、Spark等開源技術(shù)知識

          更有實戰(zhàn)講解!

          掃碼get你的專屬訓練營!


          專欄作者介紹

          Christopher Dossman是Wonder Technologies的首席數(shù)據(jù)科學家,在北京生活5年。他是深度學習系統(tǒng)部署方面的專家,在開發(fā)新的AI產(chǎn)品方面擁有豐富的經(jīng)驗。除了卓越的工程經(jīng)驗,他還教授了1000名學生了解深度學習基礎(chǔ)。

          LinkedIn:

          https://www.linkedin.com/in/christopherdossman/


          志愿者介紹
          后臺回復(fù)志愿者”加入我們


          點「在看」的人都變好看了哦!
          瀏覽 45
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  97成人网站 | 国语对白真实视频播放 | 中文字幕青娱乐 | 操逼视频免费试看 | 日v在线|