<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          CVPR2022來了:華人學(xué)生斬獲最佳學(xué)生論文,緬懷孫劍博士~

          共 4586字,需瀏覽 10分鐘

           ·

          2022-06-28 14:34

          回復(fù)“100題”領(lǐng)取『名企AI面試100題』PDF

          回復(fù)“干貨資料”領(lǐng)取『NLP、CV、ML等AI方向』干貨資料

          回復(fù)“往期招聘”查看『往期內(nèi)推招聘』


          戳我領(lǐng)取ML、推薦等方向近百條數(shù)據(jù)集


          導(dǎo)讀:2年沒見,CVPR 2022終于來線下了,6000人參會(huì)火爆。最佳論文花落蘇黎世理工,同濟(jì)、阿里摘最佳學(xué)生論文桂冠。斯坦福大學(xué)教授李飛飛榮獲「黃煦濤紀(jì)念獎(jiǎng)」。此外,大會(huì)現(xiàn)場(chǎng)還播放了一段視頻,緬懷孫劍博士。

          6月21日,CVPR 2022正式拉開帷幕。

          受疫情影響開了兩年的虛擬會(huì)議之后,本屆大會(huì)終于恢復(fù)了線下出席的方式。

          于是,線下注冊(cè)參會(huì)的人數(shù)一下子就達(dá)到了5641人,比2017年還多。


          CVPR 2022收到了來自23389名作者共8161篇投稿,相比2021年的7093篇增長(zhǎng)15%。

          其中,投稿數(shù)最多的是來自中國(guó)大陸的作者,占到了44.59%;美國(guó)則以20.65%的比例位列第二。


          經(jīng)過三個(gè)多月的評(píng)審工作,大會(huì)最終共有 2064 篇論文被接收,接收率為 25.28%,高于去年的 23.6%。其中有 342 份被選為 Oral 論文,1721 份被選為 Poster 論文。此外,今年的 review 數(shù)量為 25804,rebuttal 數(shù)量為 5884。


          其中,國(guó)內(nèi)有大量論文被接收。自新冠疫情流行以來,今年 CVPR 還是首次線下舉辦。據(jù)主辦方統(tǒng)計(jì),截至大會(huì)開幕,共有 9981 人注冊(cè)參會(huì),其中 5641 人現(xiàn)場(chǎng)參會(huì),4340 人以線上方式參會(huì)。

          今年的大會(huì)特別紀(jì)念了孫劍博士:

          圖注:大會(huì)緬懷孫劍博士頁面


          在主會(huì)議的最開始,CVPR 2022 即公布了本次大會(huì)的全部獎(jiǎng)項(xiàng)。

          ▋最佳論文獎(jiǎng):「Learning to Solve Hard Minimal Problems」



          • 機(jī)構(gòu):ETH Zurich、華盛頓大學(xué)、佐治亞理工學(xué)院、捷克理工大學(xué)
          • 論文地址:https://arxiv.org/abs/2112.03424

          本文提出了一種在RANSAC框架內(nèi)解決困難幾何優(yōu)化問題的方法。這類問題涉及將原始的幾何優(yōu)化問題放寬為具有許多假解的最小問題。本文提出的方法避免了計(jì)算大量的假解。本文提出了一個(gè)學(xué)習(xí)策略,用于選擇可以在數(shù)值上延續(xù)原始問題,以及感興趣的解決方案的起始問題-解決方案對(duì)。

          本文通過RANSAC求解器來證明了這一方法,該求解器用于計(jì)算三個(gè)經(jīng)過校準(zhǔn)的相機(jī)的相對(duì)位置,通過每個(gè)視圖中的四個(gè)點(diǎn)進(jìn)行最小松弛化。平均可在70微秒內(nèi)解決一個(gè)問題。


          最佳論文榮譽(yù)提名:「Dual-Shutter Optical Vibration Sensing」



          論文地址:
          https://openaccess.thecvf.com/content/CVPR2022/papers/Sheinin_DualShutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf

          機(jī)構(gòu):卡內(nèi)基梅隆大學(xué)(CMU)

          視覺振動(dòng)測(cè)量是一種非常有用的工具,可用于遠(yuǎn)程捕捉音頻、材料物理屬性、人體心率等。雖然視覺上可觀察的振動(dòng)可以通過高速相機(jī)直接捕捉,但通過將激光束照射振動(dòng)表面所產(chǎn)生的散斑圖案的位移成像,可以從光學(xué)上放大微小且不易察覺的物體振動(dòng)。

          本文提出了一種新的方法,用于感知高速(高達(dá)63kHz)的振動(dòng),可以同時(shí)感知多個(gè)場(chǎng)景源,使用的傳感器額定工作頻率僅為130Hz。

          該方法依賴于同時(shí)用兩個(gè)分別裝有滾動(dòng)和全局快門傳感器的相機(jī)來捕捉場(chǎng)景。滾動(dòng)快門相機(jī)捕捉扭曲的斑點(diǎn)圖像,對(duì)高速物體的振動(dòng)進(jìn)行編碼。全局快門相機(jī)捕捉斑點(diǎn)圖案的未扭曲圖像作為參考。研究人員通過捕捉由音源(如揚(yáng)聲器、人聲和樂器)引起的振動(dòng),分析音叉的振動(dòng)模式,展示了這種新方法。


          佳學(xué)生論文獎(jiǎng):「EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monocular Object Pose Estimation」


          論文地址:
          https://openaccess.thecvf.com/content/CVPR2022/papers/Chen_EPro-PnP_Generalized_End-to-End_Probabilistic_Perspective-N-Points_for_Monocular_Object_Pose_Estimation_CVPR_2022_paper.pdf

          機(jī)構(gòu):同濟(jì)大學(xué)、阿里巴巴集團(tuán)

          通過Perspective-n-Points(PnP)從單一的RGB圖像中定位3D物體是計(jì)算機(jī)視覺中一個(gè)長(zhǎng)期存在的問題。在端到端深度學(xué)習(xí)的驅(qū)動(dòng)下,最近的研究建議將PnP解釋為一個(gè)可微分層,可以通過反向傳播物體姿勢(shì)的梯度,來部分學(xué)習(xí)2D圖像和3D空間點(diǎn)的對(duì)應(yīng)關(guān)系。然而,如果從頭開始學(xué)習(xí)整個(gè)無限制的2D-3D點(diǎn)集,在現(xiàn)行方法中無法收斂,因?yàn)榇_定的姿勢(shì)本身就是不可微的。

          本文提出了Pro-PnP,一個(gè)用于一般端到端姿勢(shì)估計(jì)的概率PnP層,它可以輸出SE(3)流形上的姿勢(shì)分布,實(shí)際上將分類Softmax帶入連續(xù)域。2D-3D坐標(biāo)和相應(yīng)的權(quán)重被視為中間變量,通過最小化預(yù)測(cè)和目標(biāo)姿勢(shì)分布之間的KL散度來學(xué)習(xí)。其基本原理統(tǒng)一了現(xiàn)有的方法,類似于注意力機(jī)制。

          EPro-PnP的效果明顯優(yōu)于現(xiàn)有基準(zhǔn),在LineMOD 6DoF姿勢(shì)估計(jì)和nuScenes三維物體檢測(cè)基準(zhǔn)上,縮小了基于PnP的方法與特定任務(wù)最佳性能之間的差距。


          最佳學(xué)生論文榮譽(yù)提名:「Ref-NeRF: Structured View-Dependent Appearance for Neural Radiance Fields」


          論文地址:https://arxiv.org/pdf/2112.03907.pdf

          機(jī)構(gòu):哈佛大學(xué)、谷歌研究院

          神經(jīng)輻射場(chǎng)(NeRF)是一種流行的視圖合成技術(shù),它將場(chǎng)景表示為一個(gè)連續(xù)的體積函數(shù),由多層感知器來提供每個(gè)位置的體積密度和隨視線變化的發(fā)射輻射的參數(shù)。雖然基于NeRF的技術(shù)擅長(zhǎng)表現(xiàn)具有平滑變化的視線依賴性外觀的精細(xì)幾何結(jié)構(gòu),但往往不能準(zhǔn)確捕捉和再現(xiàn)有光澤表面的外觀。

          本文通過引入Ref-NeRF來解決這個(gè)問題。Ref-NeRF用反射輻射的表示方法取代了NeRF的視線依賴性出射輻射的參數(shù)化,并使用一系列空間變化的場(chǎng)景屬性來構(gòu)造這一函數(shù)。

          結(jié)果表明,與法線向量的正則器相結(jié)合,新模型大大提升了鏡面反射的真實(shí)性和準(zhǔn)確性。此外,本文的模型對(duì)出射光度的內(nèi)部表示是可解釋的,對(duì)場(chǎng)景編輯很有用。


          33篇最佳論文入圍名單


          入圍名單里的第一篇就是何愷明的MAE,但很遺憾,沒最后并沒有被評(píng)上。


          早在2021年MAE橫空出世之時(shí),何愷明就被大家寄予厚望。

          全國(guó)物理、化學(xué)競(jìng)賽一等獎(jiǎng),保送清華,高考滿分,微軟亞洲研究院實(shí)習(xí),CVPR最佳論文獎(jiǎng)首位華人得主...

          可以說,這些傲人的履歷隨便拿出來一個(gè)都能秒殺大部分同齡人。

          雖然這次何愷明沒有拿下本屆CVPR最佳論文,但他在未來一定會(huì)取得更大的成績(jī)。

          Longuet-Higgins獎(jiǎng)



          Longuet-Higgins獎(jiǎng)由IEEE的PAMI(模式分析和機(jī)器智能,pattern analysis and machine intelligence)技術(shù)委員會(huì),每年在CVPR論壇上發(fā)布,旨在表彰對(duì)CV(計(jì)算機(jī)視覺)領(lǐng)域的研究產(chǎn)生重大影響的CVPR論文。

          該獎(jiǎng)以理論化學(xué)家和認(rèn)知科學(xué)家H. Christopher Longuet-Higgins的名字來命名,獲獎(jiǎng)?wù)哂蒚CPAMI獎(jiǎng)項(xiàng)委員會(huì)指定的另一個(gè)委員會(huì)來決定。

          今年,Longuet-Higgins獎(jiǎng)由Andreas Geiger等三位作者寫的論文「我們準(zhǔn)備好迎接自動(dòng)駕駛了嗎?——KITTI視覺基準(zhǔn)組件」獲得。三位作者中,Geiger和Lenz來自卡爾斯魯厄理工學(xué)院,而Urtasun則來自豐田工業(yè)大學(xué)芝加哥分校。

          在這篇論文中,三位研究者使用自己開發(fā)的自動(dòng)駕駛平臺(tái)為為立體、光流、視覺測(cè)程 / SLAM 和 3D 目標(biāo)檢測(cè)等任務(wù)開發(fā)了一個(gè)新基準(zhǔn)。

          其中,研究人員的記錄平臺(tái)配備有四個(gè)高分辨率視頻相機(jī)、Velodyne激光掃描儀,以及SOTA級(jí)別的本地化系統(tǒng)。

          青年研究者獎(jiǎng)



          青年研究者獎(jiǎng)同樣由PAMI技術(shù)委員會(huì)頒發(fā),評(píng)選過程由PAMI-TC獎(jiǎng)項(xiàng)委員會(huì)進(jìn)行管理。獲獎(jiǎng)?wù)咭矔?huì)在CVPR會(huì)議上公布。

          今年的獲獎(jiǎng)?wù)哂袃晌?,分別是Bharath Hariharan和Olga Russakovsky。

          Hariharan是康奈爾大學(xué)計(jì)算機(jī)科學(xué)系的助理教授,主要從事CV和ML方面的工作,尤其是那些無視「大數(shù)據(jù)」標(biāo)簽的重要問題。

          他喜歡解決將機(jī)器學(xué)習(xí)的進(jìn)步與計(jì)算機(jī)視覺、幾何和特定領(lǐng)域知識(shí)相結(jié)合的問題。

          目前,Hariharan的團(tuán)隊(duì)正在構(gòu)建一個(gè)可以在很少或沒有監(jiān)督的情況下學(xué)習(xí)數(shù)以萬計(jì)的視覺概念的系統(tǒng),并產(chǎn)生詳盡的輸出,例如精確的3D形狀等等。

          Russakovsky是普林斯頓大學(xué)計(jì)算機(jī)科學(xué)系的助理教授,研究方向也聚焦在CV領(lǐng)域。

          黃煦濤(Thomas S. Huang )紀(jì)念獎(jiǎng)



          黃煦濤紀(jì)念獎(jiǎng)于2020年開始設(shè)立,從2021年開始,每年在CVPR大會(huì)上頒發(fā)一次,旨在表彰在研究、教學(xué)與指導(dǎo)和為CV社區(qū)服務(wù)方面公認(rèn)為典范的研究人員。

          該獎(jiǎng)項(xiàng)是為了紀(jì)念已故的黃煦濤教授而設(shè)立的,他是一位在CV和圖像處理等多個(gè)領(lǐng)域做出大量貢獻(xiàn)的先驅(qū)學(xué)者。同時(shí),他也是為幾代人的成長(zhǎng)做出貢獻(xiàn)的榜樣。

          該獎(jiǎng)項(xiàng)每年頒發(fā)給博士畢業(yè)后至少7年的研究人員,最好是職業(yè)生涯中期(博士畢業(yè)不能超過25年)。

          該獎(jiǎng)的候選人考慮CV領(lǐng)域的所有研究人員。最終獎(jiǎng)勵(lì)包括3,000美元現(xiàn)金獎(jiǎng)勵(lì)和一塊獎(jiǎng)牌。


          本次黃煦濤紀(jì)念獎(jiǎng)的獲獎(jiǎng)?wù)呤撬固垢4髮W(xué)計(jì)算機(jī)科學(xué)系首任紅杉教授李飛飛。

          2013~2018年,她擔(dān)任了斯坦福大學(xué)人工智能實(shí)驗(yàn)室主任。2017年1月至2018年9月這段時(shí)間,她還擔(dān)任了谷歌副總裁,在谷歌云擔(dān)任人工智能與機(jī)器學(xué)習(xí)的首席科學(xué)家。

          李飛飛博士致力于研究啟發(fā)式AI、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、計(jì)算機(jī)視覺,以及AI+醫(yī)療保健。

          此外,她還研究過認(rèn)知和計(jì)算神經(jīng)科學(xué)。

          她曾在Nature、PNAS、CVPR、ICCV、ECCV、ICRA等大量頂刊和頂會(huì)上發(fā)表了200多篇論文。

          她還是ImageNet和ImageNet Challenge的發(fā)明者,這是一種大規(guī)模數(shù)據(jù)集和基準(zhǔn)測(cè)試工作,為深度學(xué)習(xí)和人工智能的最新發(fā)展做出了巨大貢獻(xiàn)。

          除了她在技術(shù)上的成就,她還是STEM的倡導(dǎo)者,AI多樣性的全國(guó)代言人。她致力于提高人工智能教育的包容性和多樣性。




          進(jìn)大廠是大部分程序員的夢(mèng)想,而進(jìn)大廠的門檻也是比較高的。刷題,也成為面試前的必備環(huán)節(jié)。


          七妹給大家準(zhǔn)備了“武功秘籍”,七月在線干貨組繼19年出的兩本書《名企AI面試100題》和《名企AI面試100篇》后,又整理出《機(jī)器學(xué)習(xí)十大算法系列》、《2021年最新大廠AI面試題 Q3版》兩本圖書,不少同學(xué)通過學(xué)習(xí)拿到拿到dream offer。


          為了讓更多AI人受益,七仔現(xiàn)把電子版免費(fèi)送給大家,希望對(duì)你的求職有所幫助。如果點(diǎn)贊和點(diǎn)在看的人數(shù)較多,我會(huì)后續(xù)整理資料并分享答案給大家。



          ↓ ↓ ↓以下4本書,電子版,直接送 ↓ ↓ ↓

          私我回復(fù)“088”領(lǐng)取!

          或七月在線任意一個(gè)老師領(lǐng)取!




          瀏覽 75
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  91丝袜 一区在线观看 | 五月天操屄视频 | 日日夜夜干手机网站 | 激情九月婷婷 | 日本一级一片免费视频 |