僅用三張圖,合成高質(zhì)量的3D場(chǎng)景,NTU提出SparseNeRF
來源:機(jī)器之心 本文約2000字,建議閱讀5分鐘
最近,一些方法極大地改進(jìn)了基于神經(jīng)輻射場(chǎng) NeRF 稀疏 3D 重建的性能。
隨著深度學(xué)習(xí)與 3D 技術(shù)的發(fā)展,神經(jīng)輻射場(chǎng)(NeRF)在 3D 場(chǎng)景重建與逼真新視圖合成方面取得了巨大的進(jìn)展。給定一組 2D 視圖作為輸入,神經(jīng)輻射場(chǎng)便可通過優(yōu)化隱式函數(shù)表示 3D。
然而,合成高質(zhì)量的新視角通常需要密集的視角作為訓(xùn)練。在許多真實(shí)世界的場(chǎng)景中,收集稠密的場(chǎng)景視圖通常是昂貴且耗時(shí)的。因此,有必要研究能夠從稀疏視圖中學(xué)習(xí)合成新視角圖像且性能不顯著下降的神經(jīng)輻射場(chǎng)方法。
比如說,當(dāng)輸入只有三張視角圖片時(shí),我們希望可以訓(xùn)練出真實(shí)的 3D 場(chǎng)景,如下動(dòng)圖所示:
-
項(xiàng)目主頁: https://sparsenerf.github.io/ -
代碼: https://github.com/Wanggcong/SparseNeRF -
論文: https://arxiv.org/abs/2303.16196
編輯:文婧
評(píng)論
圖片
表情
