<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          2021年充滿驚喜的人工智能論文綜述

          共 5139字,需瀏覽 11分鐘

           ·

          2021-11-27 04:24

          ↓↓↓點擊關注,回復資料,10個G的驚喜

          轉(zhuǎn)載于:新智元

          現(xiàn)如今,AI技術突飛猛進,每年都會誕生很多優(yōu)秀的論文。
          ?
          想知道2021年有哪些paper是你不能錯過的嗎?
          ?
          這不,在GitHub上,有一位小哥放出了這樣一個項目,目前,里面總結了33篇今年必看論文,堪稱「良心寶藏」。

          https://github.com/louisfb01/best_AI_papers_2021
          ?
          這個項目的名稱是「2021年充滿驚喜的人工智能論文綜述」,作者是Louis-Fran?ois Bouchard(GitHub名為louisfb01),上線一天就收獲314個star(持續(xù)上漲中)。
          ?
          Louis-Fran?ois Bouchard來自加拿大蒙特利爾,我目前在école de Technologie Supérieure攻讀人工智能-計算機視覺碩士學位,同時在designstripe兼職做首席人工智能研究科學家。
          ?
          值得一提的是,Louis還在YouTube上有自己的頻道「What's AI」。
          ?
          What's AI主頁:https://www.louisbouchard.ai/
          ?
          Louis之所以在YouTube上做「What's AI」這個頻道,是希望用簡單的語言分享和解釋人工智能,為大家分享新的研究和應用。
          ?
          YouTube What's AI 頻道:https://www.youtube.com/c/WhatsAI/featured
          ?
          Louis想為所有人揭開人工智能「黑匣子」的神秘面紗,讓人們意識到使用它的風險。
          ?
          Louis是一個很有分享精神的人,喜歡學習和分享他所學到的東西。他寫了不少文章,也在自己的頻道更新視頻,在GitHub上也正在做一些有趣的項目。
          ?
          ?
          其實,「2021年充滿驚喜的AI論文綜述」已經(jīng)是Louis更新「AI論文綜述」系列的第二年了。
          ?
          在2020年,Louis也上線了「2020年充滿驚喜的AI論文綜述」項目,里面是按發(fā)布日期排列的AI最新突破的精選列表,帶有清晰的視頻解釋,更深入文章的鏈接和源代碼。

          https://github.com/louisfb01/Best_AI_paper_2020
          ?
          下面,就來看看「2021年充滿驚喜的AI論文綜述」里面到底有哪些讓人驚喜的AI最新研究成果吧!
          ?

          2021年充滿驚喜的AI論文綜述

          ?

          盡管世界仍在慢慢復蘇,但研究并沒有放緩其步伐,尤其是在人工智能領域。
          ?
          此外,2021年還強調(diào)了許多重要的方面,如道德方面、重視偏見、治理、透明度等等。
          ?
          人工智能和我們對人腦的理解及其與AI的聯(lián)系正在不斷發(fā)展,在不久的將來,也許有希望改善我們的生活質(zhì)量。
          ?

          精彩論文節(jié)選

          ?
          1、DALL-E:Zero-Shot Text-to-Image Generation,來自OpenAI
          論文地址:https://arxiv.org/pdf/2102.12092.pdf
          ?
          一個Emoji的小企鵝,帶著藍帽子,紅手套,穿著黃褲子示例
          ?
          論文介紹:
          ?
          GPT-3表明,語言可以用來指導大型神經(jīng)網(wǎng)絡執(zhí)行各種文本生成任務。
          ?
          而Image GPT表明,同樣類型的神經(jīng)網(wǎng)絡也可以用來生成高保真度的圖像。這個突破說明通過文字語言來操縱視覺概念現(xiàn)在已經(jīng)觸手可及。
          ?
          OpenAI成功地訓練了一個能夠從文本標題生成圖像的網(wǎng)絡。它非常類似于GPT-3和Image GPT,并產(chǎn)生了驚人的結果。
          ?
          ?
          和GPT-3一樣,DALL-E也是一個Transformer語言模型。它同時接收文本和圖像作為單一數(shù)據(jù)流,其中包含多達1280個token,并使用最大似然估計來進行訓練,以一個接一個地生成所有的token。
          ?
          這個訓練過程不僅允許DALL-E可以從頭開始生成圖像,而且還可以重新生成現(xiàn)有圖像的任何矩形區(qū)域,與文本提示內(nèi)容基本一致。
          ?
          利用DALL·E生成企鵝抱枕
          ?
          2、Swin Transformer: Hierarchical Vision Transformer Using Shifted Windows
          論文地址:https://arxiv.org/pdf/2103.14030.pdf
          ?
          論文介紹:
          ?
          這篇文章介紹了一種新的、可以應用于計算機視覺里的Transformer,Swin Transformer。
          ?
          Transformer解決計算機視覺問題的挑戰(zhàn)主要來自兩個領域:圖像的比例差異很大,而且圖像具有很高的分辨率,在有些視覺任務和如語義分割中,像素級的密集預測對于Transformer來說是難以處理的,因為其self-attention的計算復雜度與圖像大小成二次關系。
          ?
          ?
          為了克服這些問題,Swin Transformer構建了分層Transformer特征圖,并采用移位窗口計算。移位窗口方案通過將self-attention計算限制在不重疊的局部窗口(用紅色標出),同時還允許跨窗口連接,帶來了更高的效率。
          ?
          Swin Transformer通過從小尺寸的面片(用灰色勾勒)開始,并逐漸合并更深的Transformer層中的相鄰面片來構建分層表示。這種分層體系結構可以靈活地在各種尺度上建模,并且在圖像大小方面具有線性計算復雜度。線性計算復雜度是通過在分割圖像的非重疊窗口(用紅色標出)內(nèi)局部計算自我注意來實現(xiàn)的。?每個窗口中的面片數(shù)量是固定的,因此復雜度與圖像大小成線性關系。
          ?
          Swin Transformer在圖像分類、目標檢測和語義分割等識別任務上取得了很好的性能,在三個任務中,Swin Transformer的時間延遲與ViT,DeiT和ResNeXt模型相似,但性能卻得到了大幅提升:COCO test-dev 58.7 box AP和51.1 mask AP,力壓之前的最先進結果2.7 box AP和2.6 mask AP。?在ADE20K語義分割任務中,Swin Transformer在驗證集上獲得了53.5 mIoU,比以前的最先進水平(SETR)提高了3.2 mIoU。?在ImageNet-1K圖像分類中,它也達到了87.3%的最高精度,充分展現(xiàn)Transformer模型作為新視覺backbone的潛力。
          ?
          該論文一作劉澤是中科大的學生,在微軟亞洲研究院實習。他于2019年獲中國科技大學學士學位,并以最高榮譽獲得郭沫若獎學金。
          ?
          個人主頁介紹,其2篇論文和1篇Oral被ICCV2021接收。
          ?
          個人主頁:https://zeliu98.github.io/
          ?
          3、StyleCLIP: Text-driven manipulation of StyleGAN imagery
          論文地址:https://arxiv.org/pdf/2103.17249.pdf
          ?
          論文介紹:
          ?
          這是一項來自以色列的研究人員的工作StyleCLIP,可以使用基于人工智能的生成對抗性網(wǎng)絡對照片進行超逼真的修改,并且只需要讓用戶輸入他們想要的東西的描述即可,無需輸入特定的圖片。
          ?
          這個模型也會產(chǎn)生一些非常搞笑的結果。例如可以給Facebook 的CEO馬克 · 扎克伯格的臉隨意修改,例如讓他看起來禿頂,戴上眼鏡,或者在下巴上扎上山羊胡。
          ?
          這個「火星人」的臉上似乎也有了一點人類的感覺。
          ?
          ?
          StyleCLIP模型主要由StyleGAN和CLIP模型組成。
          ?
          StyleGAN可以在不同領域(domain)生成高度真實圖像,最近也有大量的工作都集中在理解如何使用StyleGAN的隱空間來處理生成的和真實的圖像。
          ?
          ?
          ?
          但發(fā)現(xiàn)語義上潛在有意義的操作通常需要對多個自由度進行細致的檢查,這需要耗費大量的人工操作,或者需要為每個期望的風格創(chuàng)建一個帶注釋的圖像集合。
          ?
          既然基于注釋,那多模態(tài)模型CLIP(Contrastive Language-Image Pre-training)的能力是否就可以利用上,來開發(fā)一個不需要手動操作的基于文本的StyleGAN圖像處理。
          ?
          ?
          例如輸入可愛的貓(cute cat),瞇眼睛的貓就被放大了眼睛,獲取了所有可愛小貓的特征,還可以老虎變獅子等等。
          ?
          4、GitHub Copilot & Codex: Evaluating Large Language Models Trained on Code
          論文地址:https://arxiv.org/pdf/2107.03374.pdf
          ?
          論文介紹:
          ?
          OpenAI在2020年,曾推出1750億參數(shù)的GPT-3,參數(shù)規(guī)模直逼人類神經(jīng)元的數(shù)量。
          ?
          GPT-3使用了在2019年之前的互聯(lián)網(wǎng)上的幾乎所有公開的書面文本進行訓練,所以它對于自然語言是有一定理解能力的,能作詩、聊天、生成文本等等。
          ?
          今年夏天,OpenAI 發(fā)布了 Codex。
          ?
          ?
          Codex基于GPT-3進行訓練,接受了從GitHub中提取的TB級公開代碼以及英語語言示例的訓練。
          ?
          只要你對Codex發(fā)號施令,它就會將英語翻譯成代碼。
          ?
          ?
          隨后,你的雙手離開鍵盤,Codex會自動編程,火箭就自己動起來了。
          ?
          而Copilot正是建立在OpenAI強大的Codex算法之上,獲得了「海納百川」的代碼積累和前所未有的代碼生產(chǎn)能力。
          ?
          ?
          Copilot不僅僅可以模仿它見過的代碼,而且還會分析利用函數(shù)名、方法名、類名和注釋的上下文來生成和合成代碼,為開發(fā)人員提供編輯器中整行代碼或函數(shù)的建議。
          ?
          ?
          它能減少工程師通過API文檔做苦工的時間,還能幫忙編寫測試代碼。
          ?
          ?
          5、Skillful Precipitation Nowcasting using Deep Generative Models of Radar
          論文地址:https://www.nature.com/articles/s41586-021-03854-z
          ?
          論文介紹:
          ?
          今天的天氣預測是由強大的數(shù)值天氣預報(NWP)系統(tǒng)驅(qū)動的。通過解決物理方程,數(shù)值天氣預報系統(tǒng)可以提前數(shù)天得到地球尺度的預測。然而,它們很難在兩小時內(nèi)產(chǎn)生高分辨率的預測。
          ?
          即時預報填補了這一關鍵時間區(qū)間的性能空白。氣象傳感的進步使高分辨率雷達可以高頻地(在1公里分辨率下每5分鐘)提供測量出的地面降水量數(shù)據(jù)。
          ?
          過去20分鐘的觀測雷達被用來提供未來90分鐘的概率預測
          ?
          已有的短期預測方法,如STEPS和PySTEPS,沿用NWP的方法來考慮不確定性,但按照帶有雷達信息的平流方程對降水進行建模。
          ?
          基于深度學習的方法則不需要對平流方程的依賴,但現(xiàn)有方法側(cè)重于特定地點的預測,而不是對整個降水場的概率預測,這使其無法在多個空間和時間集合中同時提供一致的預測結果,限制了實用性。
          ??
          ?
          為此,DeepMind使用深度生成模型(DGMR)為概率預報開發(fā)了一種觀測驅(qū)動的方法。DGMR是學習數(shù)據(jù)概率分布的統(tǒng)計模型,可以從學習到的分布中輕松生成樣本。由于生成模型從根本上是概率性的,可以從給定的歷史雷達的條件分布中模擬許多樣本,生成預測集合。此外,DGMR既能從觀測數(shù)據(jù)中學習,又能表示多個空間和時間尺度上的不確定性。
          ?
          ?
          結果表明,DeepMind的深度生成模型可以提供更好的預測質(zhì)量、預測一致性和預測價值。模型在1,536公里×1,280公里的區(qū)域內(nèi)產(chǎn)生了逼真且時空一致的預測,提前期為5-90分鐘。
          ?
          ?DGMR能更好地預測較長時段的空間覆蓋和對流,同時不會高估強度
          ?
          通過50多位氣象專家的系統(tǒng)評估,與其他兩種競爭方法相比,DeepMind的生成模型以89%的絕對優(yōu)勢在準確性和實用性兩方面排名第一。
          ?
          其他有意思的論文都可以在Louis的GitHub主頁上找到,目前這個項目仍在更新中,收藏一波,繼續(xù)追更!
          ?
          ?


          參考資料:

          https://github.com/louisfb01/best_AI_papers_2021



          推薦閱讀

          1. 用Python學線性代數(shù):自動擬合數(shù)據(jù)分布
          2. Python 用一行代碼搞事情,機器學習通吃
          3. Github 上最大的開源算法庫,還能學機器學習!
          4. JupyterLab 這插件太強了,Excel靈魂附體
          5. 終于把 jupyter notebook 玩明白了
          6. 一個超好用的 Python 標準庫,666?
          7. 幾百本編程中文書籍(含Python)持續(xù)更新
          8. 100天搞定機器學習|Day63 徹底掌握 LightGBM
          9. 100天搞定機器學習 番外:使用FastAPI構建機器學習API


          你也「在看」嗎???


          瀏覽 47
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  三区毛片| 环亚无码 | 激情五月丁香花 | 销魂美女一级A片免费看 | 青青草草草在线视频资源站 |