<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          同濟、阿里獲CVPR最佳學(xué)生論文,李飛飛獲黃煦濤獎,近6000人線下參會

          共 5176字,需瀏覽 11分鐘

           ·

          2022-06-28 01:33

          機器之心報道

          機器之心編輯部

          剛剛,CVPR 2022 正式公布了最佳論文、最佳學(xué)生論文等獎項。來自 ETH Zurich、華盛頓大學(xué)、佐治亞理工學(xué)院、捷克理工大學(xué)多個機構(gòu)的研究者共同獲得了最佳論文獎,來自阿里巴巴和同濟大學(xué)的研究者獲得了最佳學(xué)生論文獎。此外,斯坦福大學(xué)教授李飛飛獲得了本次大會的 Thomas S. Huang (黃煦濤)紀念獎。


          ?

          2022 年,??CVPR 大會的投稿量達到 8161 份,相比 2021 年度的 7093 份提交增長了 15%。其中 44.59% 的作者來自中國,排在第二名的是美國,占據(jù) 20.65%。

          ?
          圖源:推特用戶 @Jared Heinly。

          經(jīng)過三個多月的評審工作,大會最終共有 2064 篇論文被接收,接收率為 25.28%,高于去年的 23.6%。其中有 342 份被選為 Oral 論文,1721 份被選為 Poster 論文。此外,今年的 review 數(shù)量為 25804,rebuttal 數(shù)量為 5884。

          ?
          圖源:推特用戶 @raven。

          其中,國內(nèi)有大量論文被接收。如據(jù)機器之心了解,商湯科技及聯(lián)合實驗室共有 71 篇論文被大會接收,其中近四分之一被錄用為 Oral。

          自新冠疫情流行以來,今年 CVPR 還是首次線下舉辦。據(jù)主辦方統(tǒng)計,截至大會開幕,共有 9981 人注冊參會,其中 5641 人現(xiàn)場參會,4340 人以線上方式參會。

          今年的大會特別紀念了孫劍博士:

          ?

          在主會議的最開始,CVPR 2022 即公布了本次大會的全部獎項。來自 ETH Zurich、華盛頓大學(xué)、佐治亞理工學(xué)院、捷克理工大學(xué)多個機構(gòu)的研究者共同獲得了最佳論文獎,來自阿里巴巴和同濟大學(xué)的研究者獲得了最佳學(xué)生論文獎。此外,最佳論文提名和最佳學(xué)生論文提名的獎項分別由 CMU 以及哈佛大學(xué)、谷歌研究院獲得。

          最佳論文



          • 機構(gòu):ETH Zurich、華盛頓大學(xué)、佐治亞理工學(xué)院、捷克理工大學(xué)
          • 論文地址:https://arxiv.org/abs/2112.03424

          論文摘要:該研究提出了一種在 RANSAC 框架中解決困難的幾何優(yōu)化問題的方法。最小化問題源于將原始幾何優(yōu)化問題松弛化(relax)為具有許多虛假解決方案的最小問題。該研究提出的方法避免了計算大量虛假解決方案。研究者設(shè)計了一種學(xué)習(xí)策略,用于選擇初始問題 - 解決方案對以用數(shù)值方法繼續(xù)解決原問題。該研究通過創(chuàng)建一個 RANSAC 求解器來演示所提方法,該求解器通過使用每個視圖中的 4 個點進行最小松弛化來計算 3 個校準相機的相對位姿。平均而言,該方法可以在 70 μs 內(nèi)解決一個原始問題。此外,該研究還針對校準相機的相對位姿這一問題進行了基準測試和研究。

          最佳論文提名

          今年的最佳論文提名由 CMU 的研究《Dual-Shutter Optical Vibration Sensing》獲得。



          • 機構(gòu):CMU
          • 論文地址:https://openaccess.thecvf.com/content/CVPR2022/papers/Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf

          論文摘要:視覺振動測量是一種非常有用的工具,可用于遠程捕捉音頻、材料物理屬性、人體心率等。雖然視覺上可觀察的振動可以通過高速相機直接捕捉,但通過將激光束照射振動表面所產(chǎn)生的散斑圖案的位移成像,可以從光學(xué)上放大微小且不易察覺的物體振動。

          在本文中,研究者提出了一種在高速(高達 63kHz)下同時檢測多個場景源振動的新方法,該方法使用了額定工作頻率僅為 130Hz 的傳感器。他們的方法使用兩個分別配備滾動和全局快門傳感器的相機來同時捕捉場景,其中滾動快門相機捕捉到對高速物體振動進行編碼的失真散斑圖像,全局快門相機捕捉散斑圖案的未失真參考圖像,從而有助于對源振動進行解碼。最后,研究者通過捕捉音頻源(如揚聲器、人聲和樂器)引起的振動并分析音叉的振動模式,展示了他們的方法。

          研究者用一種新穎的方法「看到」(seeing)聲音。

          最佳學(xué)生論文

          今年獲得最佳學(xué)生論文獎項的是《EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monocular Object Pose Estimation》,作者來自阿里巴巴、同濟大學(xué)。



          • 機構(gòu):阿里巴巴、同濟大學(xué)
          • 論文地址:https://openaccess.thecvf.com/content/CVPR2022/papers/Chen_EPro-PnP_Generalized_End-to-End_Probabilistic_Perspective-N-Points_for_Monocular_Object_Pose_Estimation_CVPR_2022_paper.pdf

          論文摘要:利用透視點(PnP)基數(shù)從單個 RGB 圖像中定位 3D 物體是計算機視覺領(lǐng)域一個長期存在的問題。在端到端深度學(xué)習(xí)的驅(qū)動下,近期的研究建議將 PnP 解釋為一個可微分層,如此 2D-3D 點對應(yīng)就可以部分地通過反向傳播梯度 w.r.t. 物體姿態(tài)來學(xué)習(xí)。然而,從零開始學(xué)習(xí)整套不受限的 2D-3D 點在現(xiàn)有的方法下很難收斂,因為確定性的姿態(tài)本質(zhì)上是不可微的。

          這篇論文提出了一種用于普遍端到端姿態(tài)估計的概率 PnP 層——EPro-PnP(end-to-end probabilistic PnP),它在 SE 流形上輸出姿態(tài)的分布,實質(zhì)地將分類 Softmax 帶入連續(xù)域。2D-3D 坐標和相應(yīng)的權(quán)值作為中間變量,通過最小化預(yù)測姿態(tài)與目標姿態(tài)分布之間的 KL 散度來學(xué)習(xí)。其基本原理統(tǒng)一了現(xiàn)有的方法,類似于注意力機制。EPro-PnP 的性能明顯優(yōu)于其他基準,縮小了基于 PnP 的方法與基于 LineMOD 6DoF 的姿態(tài)估計以及 nuScenes 3D 目標檢測基準的特定任務(wù)方法之間的差距。

          EPro-PnP 方法概覽。

          最佳學(xué)生論文提名

          今年的最佳學(xué)生論文提名由哈佛大學(xué)和谷歌研究院的論文《Ref-NeRF: Structured View-Dependent Appearance for Neural Radiance Fields》獲得。



          • 機構(gòu):哈佛大學(xué)、谷歌研究院
          • 論文地址:https://arxiv.org/pdf/2112.03907.pdf

          論文摘要:神經(jīng)輻射場是一種流行的視圖合成技術(shù),它將場景表示為連續(xù)的體積函數(shù),由多層感知器參數(shù)化,多層感知器提供每個位置的體積密度和與視圖相關(guān)的散發(fā)輻射。雖然基于 NeRF 的方法擅長表征平滑變化的外觀幾何結(jié)構(gòu),但它們通常無法準確捕捉和再現(xiàn)光澤表面的外觀。該研究提出了 Ref-NeRF 來解決這個問題,它將 NeRF 與視圖相關(guān)的散發(fā)輻射的參數(shù)化替換為反射輻射的表征,并使用空間變化的場景屬性的集合來構(gòu)造該函數(shù)。該研究表明,使用法向量上的正則化器,新模型顯著提高了鏡面反射的真實性和準確性。此外,該研究還表明該模型對散發(fā)輻射的內(nèi)部表征是可解釋的,這對于場景編輯非常有用。

          與以往表現(xiàn)最好的神經(jīng)視圖合成模型 mip-NeRF 相比,Ref-NeRF 顯著提升了法向量(最上行)和視覺真實性(余下行)。

          其他獎項

          Longuet-Higgins 獎

          Longuet-Higgins 獎是 IEEE 計算機協(xié)會模式分析與機器智能(PAMI)技術(shù)委員會在每年的 CVPR 頒發(fā)的「計算機視覺基礎(chǔ)貢獻獎」,表彰十年前對計算機視覺研究產(chǎn)生了重大影響的 CVPR 論文。該獎項以理論化學(xué)家和認知科學(xué)家 H. Christopher Longuet-Higgins 命名。

          今年的獲獎?wù)撐臑?2012 年發(fā)表的《Are we ready for Autonomous Driving? The KITTI Vision Benchmark Suite》,當時三位作者中的 Andreas Geiger 和 Philip Lenz 來自卡爾斯魯厄理工學(xué)院, Raquel Urtasun 來自豐田工業(yè)大學(xué)芝加哥分校。

          圖源:推特用戶 @Kosta Derpanis

          論文地址:http://www.cvlibs.net/publications/Geiger2012CVPR.pdf

          在本文中,研究者利用他們自己的自動駕駛平臺為立體、光流、視覺測程 / SLAM 和 3D 目標檢測等任務(wù)開發(fā)了一個新的具有挑戰(zhàn)性的基準。他們的記錄平臺配備了 4 臺高分辨率攝像機、1 臺 Velodyne 激光掃描儀和 1 個 SOTA 定位系統(tǒng),基準則包括 389 個立體和光流圖像對、39.2km 長的立體視覺測程序列以及在雜亂場景中捕獲的超過 20 萬個 3D 目標注釋(每張圖像最多可見 15 輛車和 30 名行人)。


          左上為配備了傳感器的記錄平臺,中上為來自研究者視覺測程基準中的軌跡、右上為視差和光流圖、下方為 3D 目標標簽。

          青年研究者獎

          青年研究者獎(Young Researcher Awards)旨在表彰年輕的科學(xué)家,鼓勵 ta 們繼續(xù)做出開創(chuàng)性的工作。評選標準是獲獎?wù)攉@得博士學(xué)位的年限少于 7 年。

          今年獲得該獎項的研究者分別是 Bharath Hariharan 和 Olga Russakovsky。

          圖源:推特用戶 @Kosta Derpanis

          Bharath Hariharan 為康奈爾大學(xué)計算機科學(xué)系助理教授,從事計算機視覺和機器學(xué)習(xí)方面的工作,尤其是那些無視大數(shù)據(jù)標簽的重要問題。Hariharan 主要研究方向為將機器學(xué)習(xí)的進步與計算機視覺、幾何和特定領(lǐng)域知識的見解結(jié)合起來。

          目前,Hariharan 所在團隊正在致力于構(gòu)建一個系統(tǒng),該系統(tǒng)可以在很少或沒有監(jiān)督的情況下了解數(shù)以萬計的視覺概念,產(chǎn)生豐富而詳細的輸出,比如精確的 3D 形狀,并對世界進行推理,將這種推理傳遞給人類。

          他在 Google Scholar 上的論文被引量達到 25242,h 指數(shù)為 38。

          個人主頁:http://home.bharathh.info/

          Olga Russakovsky 為普林斯頓大學(xué)計算機科學(xué)系助理教授,致力于開發(fā)能夠?qū)σ曈X世界進行推理的人工智能系統(tǒng)。Russakovsky 主要研究方向為計算機視覺、人機交互等領(lǐng)域。她的多篇論文被 ECCV、CVPR 等接收。

          她在 Google Scholar 上的論文被引量達到 34756,h 指數(shù)為 25。

          個人主頁:https://www.cs.princeton.edu/~olgarus/

          Thomas S. Huang 紀念獎

          為了紀念去世的 Thomas S. Huang(黃煦濤)教授,PAMITC 獎勵委員會去年批準設(shè)立 Thomas S. Huang 紀念獎,以表彰在 CV 研究、教育和服務(wù)方面被公認為楷模的研究人員。該獎項從 2021 年開始頒發(fā)。獲獎?wù)咝枰玫讲┦繉W(xué)位至少 7 年,最好處于職業(yè)發(fā)展中期(不超過 25 年)。

          本屆 Thomas S. Huang 紀念獎的獲獎?wù)呤撬固垢4髮W(xué)教授李飛飛。

          圖源:推特用戶 @Kosta Derpanis

          李飛飛為斯坦福大學(xué)計算機科學(xué)教授,美國工程院院士,美國國家醫(yī)學(xué)院院士。她的專業(yè)領(lǐng)域是計算機視覺和認知神經(jīng)科學(xué)。2016 年,李飛飛加入 Google 云端人工智能暨機器學(xué)習(xí)的中國中心團隊,以 Google Cloud 首席科學(xué)家身份任團隊負責(zé)人之一。2018 年 9 月,她宣布返回斯坦福大學(xué)任教,并持續(xù)參與斯坦福大學(xué)的 AI 議題研究。

          李飛飛的工作包括括受認知啟發(fā)的 AI,機器學(xué)習(xí),深度學(xué)習(xí),計算機視覺和 AI + 醫(yī)療保健,尤其是用于醫(yī)療保健交付的環(huán)境智能系統(tǒng)。她還從事認知和計算神經(jīng)科學(xué)方面的工作。她發(fā)明了 ImageNet 和 ImageNet Challenge,其中 ImageNet Challenge 是一項重要的大規(guī)模數(shù)據(jù)集和基準測試工作。

          她在 Google Scholar 上的論文被引量達到 167561,h 指數(shù)為 128。

          個人主頁:https://profiles.stanford.edu/fei-fei-li

          ? THE END 

          往期精彩回顧




          瀏覽 47
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  免费的黄色片免费的黄色片 | 大鸡巴网址 | 久久99偷拍 | 韵韵阳具| 亚洲中文字慕AV无码精品 |