論文/代碼速遞2022.11.18!
最新成果demo展示:
ECCV2022|AdaNeRF:自適應采樣用于神經(jīng)輻射場實時渲染!代碼開源
標題:AdaNeRF: Adaptive Sampling for Real-time Rendering of Neural Radiance Fields
論文:https://arxiv.org/pdf/2207.10312.pdf
代碼:https://github.com/thomasneff/AdaNeRF
摘要:
最近,通過直接從稀疏觀測中學習神經(jīng)輻射場,新的視圖合成發(fā)生了革命性的變化。然而,由于體繪制方程的精確求積需要每條射線的大量樣本,因此使用這種新范式繪制圖像的速度很慢。先前的工作主要集中在加快與每個采樣點相關(guān)聯(lián)的網(wǎng)絡(luò)評估,例如,通過將輻射值緩存到顯式空間數(shù)據(jù)結(jié)構(gòu)中,但這是以犧牲模型緊湊性為代價的。在本文中,我們提出了一種新的雙網(wǎng)絡(luò)架構(gòu),通過學習如何最佳地減少所需采樣點的數(shù)量,該架構(gòu)采用正交方向。為此,我們將我們的網(wǎng)絡(luò)拆分為一個采樣和著色網(wǎng)絡(luò),這些網(wǎng)絡(luò)是聯(lián)合訓練的。我們的訓練方案沿每條射線采用固定的樣本位置,并在整個訓練過程中逐步引入稀疏性,以實現(xiàn)高質(zhì)量,即使在低樣本數(shù)下也是如此。在用目標樣本數(shù)進行微調(diào)后,可以實時呈現(xiàn)得到的緊湊神經(jīng)表示。我們的實驗表明,我們的方法在質(zhì)量和幀速率方面優(yōu)于并發(fā)緊湊神經(jīng)表示,并且與高效混合表示性能相當
最新論文整理
ECCV2022
Updated on : 18 Nov 2022
total number : 1
InternVideo-Ego4D: A Pack of Champion Solutions to Ego4D Challenges
論文/Paper: http://arxiv.org/pdf/2211.09529
代碼/Code: https://github.com/OpenGVLab/ego4d-eccv2022-solutions
CVPR2022
NeurIPS
Updated on : 18 Nov 2022
total number : 3
Language Conditioned Spatial Relation Reasoning for 3D Object Grounding
論文/Paper: http://arxiv.org/pdf/2211.09646
代碼/Code: None
I see you: A Vehicle-Pedestrian Interaction Dataset from Traffic Surveillance Cameras
論文/Paper: http://arxiv.org/pdf/2211.09342
代碼/Code: https://github.com/hvzzzz/Vehicle_Trajectory_Dataset
A Survey on Evaluation Metrics for Synthetic Material Micro-Structure Images from Generative Models
論文/Paper: http://arxiv.org/pdf/2211.09727
代碼/Code: None
