論文/代碼速遞2022.11.21!
最新成果demo展示:
ECCV2022|AdaNeRF:自適應(yīng)采樣用于神經(jīng)輻射場(chǎng)實(shí)時(shí)渲染!代碼開(kāi)源
標(biāo)題:AdaNeRF: Adaptive Sampling for Real-time Rendering of Neural Radiance Fields
論文:https://arxiv.org/pdf/2207.10312.pdf
代碼:https://github.com/thomasneff/AdaNeRF
摘要:
最近,通過(guò)直接從稀疏觀測(cè)中學(xué)習(xí)神經(jīng)輻射場(chǎng),新的視圖合成發(fā)生了革命性的變化。然而,由于體繪制方程的精確求積需要每條射線的大量樣本,因此使用這種新范式繪制圖像的速度很慢。先前的工作主要集中在加快與每個(gè)采樣點(diǎn)相關(guān)聯(lián)的網(wǎng)絡(luò)評(píng)估,例如,通過(guò)將輻射值緩存到顯式空間數(shù)據(jù)結(jié)構(gòu)中,但這是以犧牲模型緊湊性為代價(jià)的。在本文中,我們提出了一種新的雙網(wǎng)絡(luò)架構(gòu),通過(guò)學(xué)習(xí)如何最佳地減少所需采樣點(diǎn)的數(shù)量,該架構(gòu)采用正交方向。為此,我們將我們的網(wǎng)絡(luò)拆分為一個(gè)采樣和著色網(wǎng)絡(luò),這些網(wǎng)絡(luò)是聯(lián)合訓(xùn)練的。我們的訓(xùn)練方案沿每條射線采用固定的樣本位置,并在整個(gè)訓(xùn)練過(guò)程中逐步引入稀疏性,以實(shí)現(xiàn)高質(zhì)量,即使在低樣本數(shù)下也是如此。在用目標(biāo)樣本數(shù)進(jìn)行微調(diào)后,可以實(shí)時(shí)呈現(xiàn)得到的緊湊神經(jīng)表示。我們的實(shí)驗(yàn)表明,我們的方法在質(zhì)量和幀速率方面優(yōu)于并發(fā)緊湊神經(jīng)表示,并且與高效混合表示性能相當(dāng)
最新論文整理
ECCV2022
Updated on : 21 Nov 2022
total number : 3
Estimating more camera poses for ego-centric videos is essential for VQ3D
- 論文/Paper: http://arxiv.org/pdf/2211.10284
- 代碼/Code: None
UnconFuse: Avatar Reconstruction from Unconstrained Images
- 論文/Paper: http://arxiv.org/pdf/2211.10098
- 代碼/Code: None
The Runner-up Solution for YouTube-VIS Long Video Challenge 2022
- 論文/Paper: http://arxiv.org/pdf/2211.09973
- 代碼/Code: None
CVPR2022
NeurIPS
Updated on : 21 Nov 2022
total number : 3
Look More but Care Less in Video Recognition
論文/Paper: http://arxiv.org/pdf/2211.09992
代碼/Code: https://github.com/bespontaneous/afnet-pytorch
Ask4Help: Learning to Leverage an Expert for Embodied Tasks
論文/Paper: http://arxiv.org/pdf/2211.09960
代碼/Code: https://github.com/allenai/ask4help
SAR-based landslide classification pretraining leads to better segmentation
論文/Paper: http://arxiv.org/pdf/2211.09927
代碼/Code: https://github.com/vmboehm/sar-landslide-detection-pretraining
