<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          一周AI最火論文 | 使用圖形界面就能搭建的強化學(xué)習模型

          共 3173字,需瀏覽 7分鐘

           ·

          2020-08-14 11:06

          大數(shù)據(jù)文摘出品

          作者:Christopher Dossman

          編譯:李雷、Luna、云舟

          嗚啦啦啦啦啦啦啦大家好,本周的AI Scholar Weekly欄目又和大家見面啦!
          AI ScholarWeekly是AI領(lǐng)域的學(xué)術(shù)專欄,致力于為你帶來最新潮、最全面、最深度的AI學(xué)術(shù)概覽,一網(wǎng)打盡每周AI學(xué)術(shù)的前沿資訊。
          每周更新,做AI科研,每周從這一篇開始就夠啦!

          本周關(guān)鍵詞自動駕駛、強化學(xué)習、GANs

          本周最佳學(xué)術(shù)研究


          Waymo開放數(shù)據(jù)集挑戰(zhàn)賽

          今年3月,Alphabet旗下的自動駕駛公司W(wǎng)aymo發(fā)起公開挑戰(zhàn)賽,參賽者可以使用其自動駕駛數(shù)據(jù)集(包括2D和3D檢測、2D和3D跟蹤以及域適應(yīng)數(shù)據(jù))來建立和測試機器學(xué)習模型。挑戰(zhàn)賽收到來自世界各地的上百份代碼提交,最終入圍決賽的選手來自中國、英國、新加坡、美國等多個國家。

          最近公開的Waymo開放數(shù)據(jù)集(Waymo Open Dataset,WOD)是用于自動駕駛研究的大型數(shù)據(jù)集,提供了1000個用于訓(xùn)練和驗證以及150個用于測試的駕駛片段。每個片段包含拍攝自不同攝像機的鏡頭,平均每部攝像機約200幀圖像,這其中還包括5臺分辨率為1280×1920或886×1920的高分辨率攝像機。總而言之,該數(shù)據(jù)集包含約115萬張關(guān)于車輛、行人和騎自行車的人的圖像,以及990萬張2D邊界框。

          本論文給出了Waymo開放數(shù)據(jù)集(WOD)2020挑戰(zhàn)賽的最佳解決方案。作者采用FPN(Feature pyramid networks)作為基本框架,而級聯(lián)RCNN、堆疊PAFPN(Path aggregation FPN)和多頭RCNN則用于提高性能。為了處理WOD中的小目標檢測問題,訓(xùn)練和測試都使用了超大尺寸的圖像,本文的方案在2D對象檢測跟蹤中排名第一。作者們計劃持續(xù)增加數(shù)據(jù)集,希望這將有助于國際研究界在機器感知和自動駕駛技術(shù)方面取得進步。

          原文:
          https://arxiv.org/abs/2008.01365v1

          MusPy - 用于生成符號音樂的工具包

          本文介紹了MusPy,一個用于生成符號音樂的開源Python庫。MusPy為音樂生成系統(tǒng)中的基本組件提供了易于使用的工具,包括數(shù)據(jù)集管理,數(shù)據(jù)I / O,數(shù)據(jù)預(yù)處理和模型評估等。

          為了展示模型能力,作者對MusPy當前支持的11個數(shù)據(jù)集進行了統(tǒng)計分析。此外,他們還進行了跨數(shù)據(jù)集的泛化實驗,通過在每個數(shù)據(jù)集上訓(xùn)練自回歸模型,測量其他數(shù)據(jù)集上的留存可能性(MusPy的數(shù)據(jù)集管理系統(tǒng)使此過程變得更加容易)。

          源碼及文檔:
          https://github.com/salu133445/muspy
          原文:
          https://arxiv.org/abs/2008.01951v1

          深度輕量級Transformer模型

          在本論文中,F(xiàn)acebook人工智能實驗室和艾倫人工智能研究所的研究人員提出了一種名為DeLighT的極深度輕量級Transformer模型。他們認為,與其他基于Transformer的模型相比,DeLighT可以提供類似或更好的性能,并且參數(shù)要少得多。

          DeLighT可以高效地分配參數(shù),它使用DExTra(一種深度輕量級轉(zhuǎn)換)在每個Transformer編碼器層中分配參數(shù),而在各層之間使用逐層縮放的方法,這種方法允許在輸入附近使用較淺較窄的DeLighT層,在輸出附近使用較寬較深的DeLighT層。

          總體而言,DeLighT網(wǎng)絡(luò)的深度可以是標準Transformer模型的2.5至4倍,但參數(shù)和操作卻少得多。在機器翻譯和語言建模任務(wù)上進行的實驗表明,DeLighT可以用更少的參數(shù)達到Transformer基線模型的性能。

          源碼:
          https://github.com/sacmehta/delight
          原文:
          https://arxiv.org/abs/2008.00623v1

          一個新型、簡單并且可擴展性高的強化學(xué)習框架

          強化學(xué)習(RL)已成為當下主流之一的研究領(lǐng)域,前沿的人工智能公司都會將其作為重要工具來對待。因此,許多研究人員建立了RL框架,例如openAI Gym和KerasRL,以簡化其他人的使用。

          為了降低RL新手的入門障礙,本文提出了一個新框架——EasyRL。EasyRL是一個通過交互式GUI來構(gòu)建、訓(xùn)練和評估RL代理的框架。

          由于EasyRL完全以GUI呈現(xiàn),因此不需要有關(guān)于訓(xùn)練或測試其內(nèi)置RL代理的編程知識。該框架還支持自定義RL代理和環(huán)境,這對于RL研究人員評估和比較其RL模型非常有幫助。

          原文:
          https://arxiv.org/abs/2008.01700v1

          用于圖像和視頻合成的GANs算法與應(yīng)用

          GANs現(xiàn)在是執(zhí)行各種圖像和視頻合成任務(wù)的強大工具。它們能生成高分辨率的逼真圖像和視頻,而在此之前這是一項艱巨甚至不可能的任務(wù)。GANs還能在內(nèi)容創(chuàng)作中生成一些新內(nèi)容。

          在這項工作中,研究人員提供了GANs的概述,著重于視覺合成的算法和應(yīng)用。它們涵蓋了穩(wěn)定GANs訓(xùn)練的幾種重要技術(shù),尤其是一些臭名昭著的技術(shù)難點。他們還討論了其在圖像翻譯,圖像處理,視頻合成和神經(jīng)渲染中的應(yīng)用。

          原文:
          https://arxiv.org/abs/2008.02793v1

          其他爆款論文


          簡單的Modulo可以大大勝過基于深度學(xué)習的代碼:
          https://arxiv.org/abs/2008.01686v1

          一種用于有效標記的主動圖像合成方法,可提高使用小數(shù)據(jù)進行學(xué)習任務(wù)時的性能:
          https://arxiv.org/abs/1902.01522v4

          引入Cylinder3D進行駕駛場景LiDAR語義分割:
          https://arxiv.org/abs/2008.01550v1

          單個示例生成連貫的層級樣式:
          https://arxiv.org/abs/2008.01531v1

          學(xué)習資源


          機器學(xué)習簡單的自學(xué)資源:
          https://developers.google.com/machine-learning/crash-course

          吳恩達講授斯坦福機器學(xué)習課程:
          http://www.holehouse.org/mlclass/?fbclid=IwAR1XmS0CtIXUDg0s2bxeTUpiv2Dh08L_DaDQqA2HCXqafUFfcWays6S07UI

          AI大事件


          AI可能會創(chuàng)造的20種嚴重犯罪:
          https://www.zdnet.com/article/evil-ai-these-are-the-20-most-dangerous-crimes-that-artificial-intelligence-will-create/

          Julia 1.5發(fā)布:
          https://www.zdnet.com/article/programming-language-julia-version-1-5-is-out-lots-of-new-features-better-performance/

          專欄作者介紹

          Christopher Dossman是Wonder Technologies的首席數(shù)據(jù)科學(xué)家,在北京生活5年。他是深度學(xué)習系統(tǒng)部署方面的專家,在開發(fā)新的AI產(chǎn)品方面擁有豐富的經(jīng)驗。除了卓越的工程經(jīng)驗,他還教授了1000名學(xué)生了解深度學(xué)習基礎(chǔ)。

          LinkedIn:

          https://www.linkedin.com/in/christopherdossman/


          志愿者介紹
          后臺回復(fù)志愿者”加入我們


          點「在看」的人都變好看了哦!
          瀏覽 27
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  国内毛片毛片毛片毛片毛片毛片毛片毛片毛片毛片毛片毛片 | 国模综合网 | 91成人视频一区二区三区在线观看 | 青娱乐成人在线视频 | 黄色一级片免费 |