<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          史上最火 ECCV 已開幕,這些論文都太有意思了

          共 5358字,需瀏覽 11分鐘

           ·

          2020-08-27 20:41


          點擊上方AI算法與圖像處理”,選擇加"星標"或“置頂”

          重磅干貨,第一時間送達

          By 超神經(jīng)

          來源:HyperAI超神經(jīng)


          內(nèi)容提要:計算機視覺領(lǐng)域三大國際頂級會議之一的 ECCV 2020,于 8 月 23 日至 27 日在線召開。今年 ECCV 共接受論文 1361 篇,我們從中篩選出了 15 篇最受關(guān)注的論文,與讀者分享。


          關(guān)鍵詞:ECCV 2020  精選論文



          受疫情影響,今年 ECCV 2020 和其它頂會一樣,由線下轉(zhuǎn)至線上舉辦,已于 8 月 23 日拉開了帷幕。


          23 日主要為工作坊與教程,主議程于 24 日開始


          ECCV,全稱 European Conference on Computer Vision(歐洲計算機視覺國際會議) ,是計算機視覺三大國際頂級會議之一(另外兩大頂會為 CVPR 和 ICCV),每兩年舉辦一次。


          雖然今年的疫情打亂了人們的很多計劃,但是大家對科研以及論文投稿的熱情卻依然有增無減。據(jù)統(tǒng)計,ECCV 2020 共收到有效投稿 5025 篇,是上一屆(2018 年)投稿量的兩倍還多,因此被認為是「史上最火 ECCV」。


          最終被接收發(fā)表論文 1361 篇,接收率為 27%。在接收論文中,oral 的論文數(shù)為 104 篇,占有效投稿總數(shù)的 2%,spotlight 的數(shù)目為 161 篇,比例約為 3%。其余論文為 poster。


           姿態(tài)估計、3D 點云,優(yōu)秀論文一覽


          這場計算機視覺領(lǐng)域的盛會,今年為我們帶來了哪些精彩研究成果?


          我們從入選論文中,精選出 15 篇,分別涉及 3D 目標檢測、姿態(tài)估計、圖像分類、人臉識別等多個方向。


           行人重識別 《請別打擾我:

          在其他行人干擾下的行人重識別》



          單位:華中科技大學,中山大學,騰訊優(yōu)圖實驗室


          摘要:


          傳統(tǒng)的行人重識別假設(shè)裁剪的圖像只包含單人。然而,在擁擠的場景中,現(xiàn)成的檢測器可能會生成多人的邊界框,并且其中背景行人占很大比例,或者存在人體遮擋。


          從這些帶有行人干擾的圖像中提取的特征可能包含干擾信息,這將導(dǎo)致錯誤的檢索結(jié)果。


          為了解決這一問題,本文提出了一種新的深層網(wǎng)絡(luò)(PISNet)。PISNet 首先利用 Query 圖片引導(dǎo)的注意力模塊來增強圖片中目標的特征。


          此外,我們提出了反向注意模塊和多人分離損失函數(shù)促進了注意力模塊來抑制其他行人的干擾。我們的方法在兩個新的行人干擾數(shù)據(jù)集上進行了評估,結(jié)果表明,該方法優(yōu)于現(xiàn)有的 Re-ID 方法。


          論文地址:https://arxiv.org/pdf/2008.06963


           姿態(tài)估計 《在擁擠場景中基于

          多視點幾何的對多人三維姿態(tài)估計》



          單位:約翰斯·霍普金斯大學,新加坡國立大學


          摘要:


          外極約束是目前多機三維人體姿態(tài)估計方法中特征匹配和深度估計的核心問題。盡管該公式在稀疏人群場景中的表現(xiàn)令人滿意,但在密集人群場景中,其有效性經(jīng)常受到挑戰(zhàn),主要是由于兩個來源的模糊性。


          首先是由于關(guān)節(jié)和對極線之間的歐幾里得距離所提供的簡單線索而導(dǎo)致的人類關(guān)節(jié)不匹配。第二個問題是,由于天真地將問題最小化為最小平方,因此缺乏魯棒性。


          在本文中,我們脫離了多人三維姿態(tài)估計公式,將其重新定義為人群姿態(tài)估計。我們的方法包括兩個關(guān)鍵部分:一個用于快速跨視圖匹配的圖模型和一個用于三維人體姿態(tài)重建的最大后驗(MAP)估計器。我們在四個基準數(shù)據(jù)集上證明了該方法的有效性和優(yōu)越性。

          論文地址:https://arxiv.org/pdf/2007.10986


           描述圖像 《基于場景圖分解的自然語言描述生成》



          單位:騰訊 AI Lab,威斯康星大學麥迪遜分校


          摘要:


          本文提出了一種基于場景圖分解的自然語言描述生成方法。


          使用自然語言來描述圖像是一項頗具挑戰(zhàn)性的任務(wù),本文通過重新回顧圖像場景圖表達,提出了一種基于場景圖分解的圖像自然語言描述生成方法。該方法的核心是把一張圖片對應(yīng)的場景圖分解成多個子圖,其中每個子圖對應(yīng)描述圖像的一部分內(nèi)容或一部分區(qū)域。通過神經(jīng)網(wǎng)絡(luò)選擇重要的子圖來生成一個描述圖像的完整句子,該方法可以生成準確、多樣化、可控的自然語言描述。研究者也進行了廣泛的實驗,實驗結(jié)果展現(xiàn)了這一新模型的優(yōu)勢。

          論文地址:https://arxiv.org/abs/2007.11731


           3D 點云 《用于 3D 點云的四元數(shù)等變膠囊網(wǎng)絡(luò)》



          單位:斯坦福大學,多特蒙德工業(yè)大學,帕多瓦大學


          摘要:


          我們提出了一種處理點云的三維膠囊架構(gòu),它與無序輸入集的 SO(3)旋轉(zhuǎn)組、平移和排列等價。


          該網(wǎng)絡(luò)在局部參考幀的稀疏集上運行,該局部參考幀是從輸入點云計算而來的。該網(wǎng)絡(luò)通過一種新的三維四元數(shù)群膠囊層建立端到端方差,其中包括一種等方差動態(tài)路由過程。


          膠囊層使我們能夠從姿勢中解開幾何圖形,為獲得更多信息描述和結(jié)構(gòu)化的潛在空間鋪平了道路。在此過程中,我們從理論上將膠囊之間的動態(tài)路由過程與著名的 Weiszfeld 算法聯(lián)系起來,該解決方案用于解決具有可證明的收斂特性的迭代重加權(quán)最小二乘(IRLS)問題,從而實現(xiàn)了膠囊層間魯棒姿態(tài)估計。


          由于稀疏的等變四元數(shù)膠囊,我們的體系結(jié)構(gòu)允許進行聯(lián)合對象分類和方向估計,我們可以在常見基準數(shù)據(jù)集上進行實證驗證。



          論文地址:https://arxiv.org/pdf/1912.12098.pdf


           人臉識別 《可解釋的人臉識別》



          單位:Systems & Technology Research, Visym Labs


          摘要:


          可解釋的人臉識別(簡稱 XFR)是一個解釋人臉匹配器返回的匹配結(jié)果的問題,以便深入了解為什么一個探測器會匹配一個身份而不是另一個身份。了解該原理,能夠幫助人們?nèi)バ湃魏徒忉屓四樧R別。


          在本文中,我們提供了第一個全面的基準和基線評估 XFR。我們定義了一種新的評估方案,叫做「修復(fù)游戲」(inpainting game),它是一套由 95 個受試者組成的 3648 個 triplets(probe, mate, nonmate)的精選集合,通過對選定的面部特征(如鼻子、眉毛或嘴)進行合成修復(fù),從而創(chuàng)造出一個被修補的 nonmate。


          XFR 算法的任務(wù)是生成一個網(wǎng)絡(luò)注意力圖,該圖可以最好地指出 probe 圖像中哪些區(qū)域與配對的圖像相匹配,而不是與每個 triplet 被修復(fù)的未匹配的區(qū)域。這為量化哪些圖像區(qū)域有助于人臉匹配提供了依據(jù)。


          最后,我們在此數(shù)據(jù)集上提供了一個全面的基準,在三個面部匹配器上,比較了五種最先進的算法。這一基準測試包括兩種新的算法,分別稱為子樹 EBP和基于密度的輸入采樣解釋(DISE),它們的性能遠遠優(yōu)于現(xiàn)有的最先進的技術(shù)。


          我們還在新穎的圖像上顯示了這些網(wǎng)絡(luò)注意力技術(shù)的定性可視化,并探討了這些可解釋的人臉識別模型如何提高人臉匹配者的透明度和信任度。


          論文地址:https://arxiv.org/pdf/2008.00916


           年齡估計 《壽命年齡轉(zhuǎn)化合成》



          單位:華盛頓大學,斯坦福大學,Adobe Research


          摘要:


          我們解決了單張照片年齡的遞進和回歸問題——預(yù)測一個人在未來或過去的樣子。


          現(xiàn)有的老化方法大多局限于改變紋理,忽略了人類老化和生長過程中頭部形狀的變化。這就限制了以前的方法對年齡稍大的成年人的適用性,而這些方法對兒童照片的應(yīng)用并不能產(chǎn)生高質(zhì)量的結(jié)果。


          我們提出了一種新的多領(lǐng)域圖像對圖像生成對抗網(wǎng)絡(luò)結(jié)構(gòu),其學習的潛在空間模擬了一個持續(xù)的雙向老化過程。網(wǎng)絡(luò)在 FFHQ 數(shù)據(jù)集上進行訓(xùn)練,我們根據(jù)年齡、性別和語義分割對其進行標記。使用固定年齡類作為錨點來近似連續(xù)年齡變換。我們的框架可以僅根據(jù)一張照片,預(yù)測出完整的 0-70 歲的頭像,并修改紋理和頭部的形狀。我們在各種各樣的照片和數(shù)據(jù)集上展示了結(jié)果,并顯示了在技術(shù)水平上的顯著改進。


          論文地址:https://arxiv.org/abs/2003.09764


           傳送門:論文、代碼,通通一鍵即達


          以上只是 ECCV 2020 上千篇入選論文中的冰山一角,但是面對 1361 篇海量論文,想要找到自己感興趣的論文以及原文鏈接、代碼等,著實不是件輕松的事情。


          不過,一個叫做 Paper Digest Team 的團隊,已經(jīng)為廣大讀者鋪好了路,找論文、找代碼都不再是問題。


          該團隊最近發(fā)布了一份《一句話點評 ECCV 2020 論文亮點》的總結(jié),對每篇論文都只用一句話進行了總結(jié),言簡意賅,并且都附上了論文地址,讓讀者快速找到自己最想讀的論文。


          內(nèi)容中包括了論文標題、地址、作者和亮點總結(jié)


          地址拿走不謝:


          https://www.paperdigest.org/wp-content/uploads/2020/08/ECCV-2020-Paper-Digests.pdf


          此外,他們還貼心地將 170 篇公布了代碼的論文做了整理,讀者可直接點擊相應(yīng)鏈接查看代碼:


          https://www.paperdigest.org/2020/08/eccv-2020-papers-with-code-data/


          另外,crossminds.ai 還將 oral 論文的演示文稿整理出來,讀者能夠通過其 demo 演示,更加清晰、直觀地了解論文中的技術(shù),非常有趣:


          https://crossminds.ai/category/eccv%202020/



          下載1:動手學深度學習


          AI算法與圖像處公眾號后臺回復(fù):動手學深度學習,即可下載547頁《動手學深度學習》電子書和源碼。該書是面向中文讀者的能運行、可討論的深度學習教科書,它將文字、公式、圖像、代碼和運行結(jié)果結(jié)合在一起。本書將全面介紹深度學習從模型構(gòu)造到模型訓(xùn)練,以及它們在計算機視覺和自然語言處理中的應(yīng)用。



          下載2
          AI算法與圖像處公眾號后臺回復(fù):OpenCV實戰(zhàn)項目20講即可下載20個有趣的OpenCV實戰(zhàn)項目
                
          個人微信(如果沒有備注不拉群!
          請注明:地區(qū)+學校/企業(yè)+研究方向+昵稱

          瀏覽 37
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  亚洲最黄日PP免费视频观看 | 私蜜免费啪啪视频 | 一区二区三区无码专区 | 国产精品久久久久久无人区 | 全部免费毛片在线播放网站 |