<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          論文/代碼速遞2022.11.23!

          共 1734字,需瀏覽 4分鐘

           ·

          2022-11-24 22:52


          強(qiáng)烈推薦:2000核時(shí)免費(fèi)領(lǐng),立刻開啟云上高性能計(jì)算 ?,注冊(cè)即送200元計(jì)算資源,https://www.bkunyun.com/wap/console?source=bkykolaistudy
          當(dāng)服務(wù)器有可視化界面,直接起飛!

          整理:AI算法與圖像處理
          CVPR2022論文和代碼整理:https://github.com/DWCTOD/CVPR2022-Papers-with-Code-Demo
          ECCV2022論文和代碼整理:https://github.com/DWCTOD/ECCV2022-Papers-with-Code-Demo
          歡迎關(guān)注公眾號(hào) AI算法與圖像處理,獲取更多干貨:


          大家好,  最近正在優(yōu)化每周分享的CVPR$ECCV 2022論文, 目前考慮按照不同類別去分類,方便不同方向的小伙伴挑選自己感興趣的論文哈
          歡迎大家留言其他想法,  合適的話會(huì)采納哈! 求個(gè)三連支持一波哈

          建了一個(gè)知識(shí)星球,計(jì)劃不定期分享最新的成果和資源!感興趣可以掃描體驗(yàn),另外還有50個(gè)一年免費(fèi)體驗(yàn)名額,可以添加微信nvshenj125 申請(qǐng)。

          最新成果demo展示:


          標(biāo)題:Magic3D: High-Resolution Text-to-3D Content Creation

          論文:https://arxiv.org/abs/2211.10440

          主頁:https://deepimagination.cc/Magic3D/

          摘要: 

          DreamFusion 最近展示了使用預(yù)訓(xùn)練的文本到圖像擴(kuò)散模型來優(yōu)化神經(jīng)輻射場(chǎng) (NeRF) 的實(shí)用性,實(shí)現(xiàn)了顯著的文本到 3D 合成結(jié)果。然而,該方法有兩個(gè)固有的局限性:(a)NeRF 的優(yōu)化極慢和(b)NeRF 上的低分辨率圖像空間監(jiān)督,導(dǎo)致處理時(shí)間長的低質(zhì)量 3D 模型。在本文中,我們通過利用兩階段優(yōu)化框架來解決這些限制。首先,我們使用低分辨率擴(kuò)散先驗(yàn)獲得粗略模型,并使用稀疏 3D 哈希網(wǎng)格結(jié)構(gòu)進(jìn)行加速。使用粗略表示作為初始化,我們進(jìn)一步優(yōu)化了紋理 3D 網(wǎng)格模型,該模型具有與高分辨率潛在擴(kuò)散模型交互的高效可微渲染器。我們的方法被稱為 Magic3D,可以在 40 分鐘內(nèi)創(chuàng)建高質(zhì)量的 3D 網(wǎng)格模型,比 DreamFusion 快 2 倍(據(jù)報(bào)道平均需要 1.5 小時(shí)),同時(shí)還實(shí)現(xiàn)了更高的分辨率。用戶研究顯示 61.7% 的評(píng)分者更喜歡我們的方法而不是 DreamFusion。結(jié)合圖像條件生成功能,我們?yōu)橛脩籼峁┝丝刂?3D 合成的新方法,為各種創(chuàng)意應(yīng)用開辟了新途徑。


          最新論文整理


             ECCV2022


              CVPR2022


             NeurIPS

          Updated on : 23 Nov 2022

          total number : 5

          Touch and Go: Learning from Human-Collected Vision and Touch

          • 論文/Paper: http://arxiv.org/pdf/2211.12498

          • 代碼/Code: None

          Videogenic: Video Highlights via Photogenic Moments

          • 論文/Paper: http://arxiv.org/pdf/2211.12493

          • 代碼/Code: None

          Human Evaluation of Text-to-Image Models on a Multi-Task Benchmark

          • 論文/Paper: http://arxiv.org/pdf/2211.12112

          • 代碼/Code: None

          VideoMap: Video Editing in Latent Space

          • 論文/Paper: http://arxiv.org/pdf/2211.12492

          • 代碼/Code: None

          AdaFocal: Calibration-aware Adaptive Focal Loss

          • 論文/Paper: http://arxiv.org/pdf/2211.11838

          • 代碼/Code: None




          瀏覽 34
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  亚洲无码AV在线亚洲有码AV在线精品 | www.色香蕉 | 亚洲欧美动漫中文字幕 | 91福利免费观看 | 国产777777 |