<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          SIGGRAPH 2022最佳技術(shù)論文獎(jiǎng)重磅出爐!北大陳寶權(quán)團(tuán)隊(duì)獲榮譽(yù)提名

          共 5310字,需瀏覽 11分鐘

           ·

          2022-07-12 18:37



            新智元報(bào)道  

          編輯:David
          【新智元導(dǎo)讀】SIGGRAPH 2022最佳技術(shù)論文獎(jiǎng)揭曉!北大陳寶權(quán)教授團(tuán)隊(duì)論文獲榮譽(yù)提名獎(jiǎng)。

          計(jì)算機(jī)圖形領(lǐng)域頂會(huì)SIGGRAPH 2022最佳技術(shù)論文獎(jiǎng)揭曉!
           
          今年,SIGGRAPH提供了兩種提交研究成果的方式:期刊論文和會(huì)議論文,前者是往年同一計(jì)劃的延續(xù),后者是以較短的形式分享觀點(diǎn)。
           

          另外,SIGGRAPH 2022今年新推出了技術(shù)論文獎(jiǎng),包括最佳論文獎(jiǎng)和榮譽(yù)提名獎(jiǎng)。這些論文因研究的突出性和對(duì)計(jì)算機(jī)圖形和交互技術(shù)研究的未來的創(chuàng)新貢獻(xiàn)而被選中。
           
          正式頒獎(jiǎng)將于8月11日溫哥華舉行的SIGGRAPH 2022閉幕式上舉行。
           
          此次技術(shù)論文獎(jiǎng)共評(píng)出最佳論文5篇,榮譽(yù)提名獎(jiǎng)10篇。其中,北大陳寶權(quán)教授團(tuán)隊(duì)的工作獲得榮譽(yù)提名獎(jiǎng)。

          最佳論文獎(jiǎng)(5篇)


          1. Image Features Influence Reaction Time: A Learned Probabilistic Perceptual Model for Saccade Latency 
           
          本文提出了一個(gè)受神經(jīng)學(xué)啟發(fā)的知覺模型,預(yù)測(cè)眼睛的反應(yīng)時(shí)間,作為屏幕上觀察到的圖像特征的函數(shù)。本文的模型可以作為預(yù)測(cè)和改變電子競(jìng)技和AR/VR應(yīng)用中反應(yīng)延遲的指標(biāo)。   

           
          論文鏈接:https://arxiv.org/pdf/2205.02437.pdf    
           
          發(fā)文機(jī)構(gòu):紐約大學(xué)、普林斯頓大學(xué)、北卡羅來納大學(xué)教堂山分校、英偉達(dá)研究院
           
          2. CLIPasso: Semantically-Aware Object Sketching 
           
          本文提出了CLIPasso,一種在不同抽象層次上繪制物體草圖的方法。我們把草圖定義為一組筆畫,并使用一個(gè)可區(qū)分的光柵化器來優(yōu)化筆畫的參數(shù),以適應(yīng)基于CLIP的知覺損失。抽象程度通過改變筆畫的數(shù)量來控制。
           
           
          論文鏈接:https://arxiv.org/pdf/2202.05822.pdf
           
          發(fā)文機(jī)構(gòu):特拉維夫大學(xué),洛桑聯(lián)邦理工學(xué)院、Reichman大學(xué)
           
          3. Instant Neural Graphics Primitives with a Multiresolution Hash Encoding        
           
          神經(jīng)網(wǎng)絡(luò)作為圖形基元的高質(zhì)量表示而出現(xiàn),如帶符號(hào)的距離函數(shù)、光場(chǎng)、紋理等。我們的方法可以在幾秒鐘內(nèi)訓(xùn)練出這樣的基元,并在幾毫秒內(nèi)完成渲染,從而使它們可以在圖形算法的內(nèi)循環(huán)中使用,而以前它們可能被忽略。 
           
           
          論文鏈接:https://arxiv.org/pdf/2201.05989.pdf
           
          發(fā)文機(jī)構(gòu):英偉達(dá)
           
          4. Spelunking the Deep: Guaranteed Queries on General Neural Implicit Surfaces       
             
          這項(xiàng)工作為神經(jīng)隱含曲面開發(fā)了幾何查詢,如射線投射、最接近點(diǎn)、交叉點(diǎn)測(cè)試、建立空間層次等。關(guān)鍵工具是范圍分析,可自動(dòng)計(jì)算神經(jīng)網(wǎng)絡(luò)輸出的局部界限。由此產(chǎn)生的查詢的準(zhǔn)確性有保證,即使在隨機(jī)初始化的網(wǎng)絡(luò)上。
           
           
          論文鏈接:https://arxiv.org/pdf/2202.02444.pdf
           
          發(fā)文機(jī)構(gòu):多倫多大學(xué),Adobe
           
          5. DeepPhase: Periodic Autoencoders for Learning Motion Phase Manifolds    
           
          本文提出了一個(gè)周期性自動(dòng)編碼器,它可以從非結(jié)構(gòu)化運(yùn)動(dòng)數(shù)據(jù)中學(xué)習(xí)身體運(yùn)動(dòng)的空間-時(shí)間結(jié)構(gòu)。該網(wǎng)絡(luò)產(chǎn)生一個(gè)多維相位流形,有助于增強(qiáng)神經(jīng)角色控制器和各種任務(wù)的運(yùn)動(dòng)匹配,包括各種運(yùn)動(dòng)、比如隨音樂跳舞或足球中的運(yùn)球等。
           
          發(fā)文機(jī)構(gòu):愛丁堡大學(xué)、藝電公司、香港大學(xué)
           
          一作Github:
          https://github.com/sebastianstarke/AI4Animation
           

          榮譽(yù)提名獎(jiǎng)(10篇)


          1. Joint Neural Phase Retrieval and Compression for Energy- and Computation-efficient Holography on the Edge    
           
          本文提出了一個(gè)聯(lián)合生成和壓縮純相位全息圖的框架,并在邊緣設(shè)備上實(shí)現(xiàn)了高遠(yuǎn)程傳輸效率和圖像重建質(zhì)量。通過在信息編碼過程和相位解碼程序之間不對(duì)稱的計(jì)算分配,證明了邊緣全息顯示設(shè)備的低計(jì)算和能源成本。
           
           
          論文鏈接:
          https://www.immersivecomputinglab.org/wp-content/uploads/2022/07/Hologram_compression_network_11-compressed.pdf
           
          發(fā)文機(jī)構(gòu):山東大學(xué)、普林斯頓大學(xué),北卡羅來納大學(xué)教堂山分校、紐約大學(xué)、北京大學(xué)
           
          2. Computational Design of High-level Interlocking Puzzles         
             
          本文提出了一種計(jì)算方法,根據(jù)用戶指定的謎題形狀、謎底數(shù)量和難度來設(shè)計(jì)高級(jí)聯(lián)鎖謎題。我們的關(guān)鍵思想是利用一個(gè)新的拆解圖來表示聯(lián)鎖謎題的所有可能配置,并指導(dǎo)謎題設(shè)計(jì)過程。
           
           
          論文鏈接:
          https://sutd-cgl.github.io/supp/Publication/projects/2022-SIGGRAPH-High-LevelPuzzle/download/2022-SIGGRAPH-High-LevelPuzzle.pdf
           
          發(fā)文機(jī)構(gòu):新加坡科技大學(xué);蘇黎世聯(lián)邦理工學(xué)院;奧地利IST公司
           
          3. Sparse Ellipsometry: Portable Acquisition of Polarimetric SVBRDF and Shape With Unstructured Flash Photography  
           
          本文提出了稀疏橢圓測(cè)量法,這是一種便攜式的偏振測(cè)量采集方法,可以同時(shí)采集偏振的SVBRDF和3D形狀。本文還開發(fā)了一個(gè)完整的偏光SVBRDF模型,包括漫反射和鏡面反射,以及單一散射,并設(shè)計(jì)了一個(gè)新的偏光反演算法。
           
           
          論文鏈接:
          http://vclab.kaist.ac.kr/siggraph2022p1/index.html
           
          發(fā)文機(jī)構(gòu):韓國(guó)科學(xué)技術(shù)院(KAIST);薩拉戈薩大學(xué)-I3A;微軟亞洲研究院;
           
          4. Umbrella Meshes: Volumetric Elastic Mechanisms for Freeform Shape Deployment
           
          傘狀網(wǎng)格是一種可優(yōu)化的彎曲活性結(jié)構(gòu),從一個(gè)緊湊的制造狀態(tài),部署到一個(gè)自由形狀的設(shè)計(jì)表面。本文提出了一個(gè)完整的反設(shè)計(jì)管道,結(jié)合基于物理學(xué)的模擬,在求解組成單元格機(jī)制的幾何參數(shù)時(shí),對(duì)結(jié)構(gòu)的彈性變形進(jìn)行精確建模。
           
           
          論文鏈接:
          https://lgg.epfl.ch/publications/2022/UmbrellaMeshes/paper.pdf
           
          發(fā)文機(jī)構(gòu):瑞士洛桑聯(lián)邦理工學(xué)院、加州大學(xué)戴維斯分校、休斯頓大學(xué)
           
          5. Sketch2Pose: Estimating a 3D Character Pose From a Bitmap Sketch 
                 
          藝術(shù)家們經(jīng)常通過光柵草圖來捕捉角色的姿勢(shì),然后以這些草圖為參考,在三維動(dòng)畫軟件中辛苦地?cái)[出一個(gè)三維角色。我們提出了第一個(gè)從單一的位圖草圖中推斷出三維角色姿勢(shì)的系統(tǒng),產(chǎn)生了與觀眾期望一致的姿勢(shì)。
           

          論文鏈接:
          http://www-labs.iro.umontreal.ca/~bmpix/sketch2pose/sketch2pose.pdf
           
          發(fā)文機(jī)構(gòu):蒙特利爾大學(xué)
           
          6. Facial Hair Tracking for High Fidelity Performance Capture  
           
          面部毛發(fā)是面部表演捕捉中一個(gè)基本被忽視的問題,它要求演員在捕捉過程中把胡子刮干凈。我們提出了第一個(gè)可以重建和跟蹤三維面部毛發(fā)纖維的方法,并在動(dòng)態(tài)的面部表演中近似于底層皮膚。

           
          論文信息:
          https://s2022.siggraph.org/presentation/?id=papers_418&sess=sess112
           
          發(fā)文機(jī)構(gòu):蘇黎世聯(lián)邦理工學(xué)院,迪士尼研究中心
           
          7. Towards Practical Physical-optics Rendering    
           
          本文提出了一個(gè)實(shí)用的物理光傳輸框架,能夠在渲染中再現(xiàn)全局衍射和波干擾效應(yīng)。與現(xiàn)有的方法不同,我們能夠用復(fù)雜的相干感知材料來渲染逼真、精細(xì)的場(chǎng)景,在整個(gè)過程中考慮到了光的波性,而且性能接近輻射渲染器。
           
           
          論文鏈接:
          https://sites.cs.ucsb.edu/~lingqi/publications/202203_practical_plt_paper_lowres.pdf
           
          發(fā)文機(jī)構(gòu):加州大學(xué)圣芭芭拉分校
           
          8. Free2CAD: Parsing Freehand Drawings Into CAD Commands 
           
          本文提出了Free2CAD,用戶可以畫出一個(gè)形狀,我們的系統(tǒng)將輸入的筆畫解析成CAD命令,以再現(xiàn)畫好的物體。從技術(shù)上講,我們把基于草圖的CAD建模作為一個(gè)序列到序列的轉(zhuǎn)換問題,輸入的筆觸被分組以對(duì)應(yīng)單個(gè)的CAD操作。  
           
           
          論文鏈接:
          https://geometry.cs.ucl.ac.uk/projects/2022/free2cad/paper_docs/Free2CAD_SIG_2022.pdf
                
          發(fā)文機(jī)構(gòu):INRIA,蔚藍(lán)海岸大學(xué),倫敦大學(xué)學(xué)院,微軟亞洲研究院,Adobe研究院
           
          9. Grid-free Monte Carlo for PDEs With Spatially Varying Coefficients    

          本文描述了一種方法來解決復(fù)雜幾何域上具有空間變化系數(shù)的偏微分方程(PDE),不需要對(duì)幾何或系數(shù)函數(shù)進(jìn)行任何近似。本文主要貢獻(xiàn)是通過從體積渲染的蒙特卡洛技術(shù)中獲得靈感,擴(kuò)展了WoS算法。
           
           
          論文鏈接:https://arxiv.org/pdf/2201.13240.pdf
           
          發(fā)文機(jī)構(gòu):卡內(nèi)基梅隆大學(xué),達(dá)特茅斯學(xué)院
           
          10. Implicit Neural Representation for Physics-driven Actuated Soft Bodies    
               
          本文通過定義一個(gè)函數(shù),使材料空間中的空間點(diǎn)與控制參數(shù)之間形成連續(xù)的映射,來控制主動(dòng)軟體。這使我們能夠捕捉到信號(hào)的主導(dǎo)頻率,使該方法不受離散化影響,并可廣泛適用。
           
          論文信息(一作個(gè)人主頁(yè)):
          https://people.inf.ethz.ch/~linyang/
           
          發(fā)文機(jī)構(gòu):蘇黎世聯(lián)邦理工學(xué)院
           
          自 1974 年以來,ACM SIGGRAPH 一直在促進(jìn)和慶祝計(jì)算機(jī)圖形和交互技術(shù)方面的創(chuàng)新,建立能夠發(fā)明、教育、啟發(fā)和重新定義計(jì)算機(jī)圖形領(lǐng)域的社區(qū)。
           
          參考資料:
          https://blog.siggraph.org/2022/07/siggraph-2022-technical-papers-awards-best-papers-and-honorable-mentions.html/



          瀏覽 73
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  成人丁香婷婷 | 看操B | 久久久久久AV少妇 | 国产精品日韩高清北条麻衣 | 欧美大香蕉免费 |