<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          NBNet:拋開復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計,曠世&快手提出子空間注意力模塊用于圖像降噪

          共 3301字,需瀏覽 7分鐘

           ·

          2021-06-24 22:03

          點擊下方AI算法與圖像處理”,關(guān)注一下

          重磅干貨,第一時間送達

          作者丨小小劉
          審稿丨鄧富城
          編輯丨極市平臺

          導(dǎo)讀

           

          本文對曠視科技2021年關(guān)于圖像去噪的新作"NBNet進行解讀,該工作拋開復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計和精確的圖像噪聲建模,創(chuàng)新性的提出子空間基向量生成和投影操作。前沿

          論文地址:https://arxiv.org/abs/2012.15028

          開源代碼:https://github.com/megvii-research/NBNet

          NBNet創(chuàng)新簡述

          本文從圖像自適應(yīng)投影這一新視角出發(fā),提出一種新的圖像去噪網(wǎng)絡(luò)------NBNet,通過在特征空間中學(xué)習(xí)一系列重建基底使網(wǎng)絡(luò)能分離信號和噪聲。選擇信號子空間相應(yīng)的基底并將輸入信號投影到信號子空間中,以實現(xiàn)圖像去噪。核心是希望投影能保持輸入信號的局部結(jié)構(gòu),尤其是低亮度和弱紋理的區(qū)域。為此,作者提出子空間注意力SSA,一個non-local注意力模塊來顯式地學(xué)習(xí)基底生成和子空間投影,最終設(shè)計一個UNet結(jié)構(gòu)的網(wǎng)絡(luò)完成端到端的圖像去噪。大量實驗表明提出的NBNet在PSNR和SSIM指標(biāo)上都取得了最好的性能。

          NBNet提出動機

          圖像去噪是圖像處理和計算機視覺領(lǐng)域的基本任務(wù),一個典型的加性噪聲模型可用下式表示:y=x+n,想要恢復(fù)出干凈的圖像x其實是一個病態(tài)問題。傳統(tǒng)方法是利用圖像先驗和噪聲模型估計圖像或是噪聲,例如NLM和BM3D利用圖像局部相似性和噪聲獨立性,小波去噪方法利用圖像在變換域上的稀疏性。近年來,基于深度學(xué)習(xí)的去噪方法隱式地利用圖像先驗或從大規(guī)模的成對數(shù)據(jù)集中學(xué)習(xí)噪聲分布。盡管基于深度學(xué)習(xí)的方法取得了很大成功,但在弱紋理或高頻細(xì)節(jié)這樣的困難場景下,恢復(fù)高質(zhì)量圖像仍然是一項挑戰(zhàn)。因為卷積網(wǎng)絡(luò)通常利用局部濾波器分離噪聲和信號,但在低信噪比下,如果沒有全局結(jié)構(gòu)信息局部響應(yīng)就會很容易失敗。

          為解決上述問題,通過投影來利用非局部圖像信息從而設(shè)計圖像去噪網(wǎng)絡(luò)。如上圖是圖像投影和基底示意圖,從輸入圖像生成一系列的圖像基底向量,然后從這些基底向量構(gòu)成的子空間重建出去噪圖像。因為自然圖像通常處于低秩的信號空間,因此通過準(zhǔn)確地學(xué)習(xí)和生成這些基底向量,重建圖像能最大程度保留原始信息并抑制噪聲。

          NBNet的具體結(jié)構(gòu)

          NBNet整體是UNet形式的網(wǎng)絡(luò),其中關(guān)鍵的是子空間注意力模塊SSA,其學(xué)習(xí)子空間基底向量,如圖1是NBNet的整體結(jié)構(gòu)。NBNet的創(chuàng)新在于子空間投影,包括兩個主要的步驟:基底向量生成和投影

          1 、基底向量生成,從輸入圖像特征圖譜生成子空間基底向量?;咨珊瘮?shù)用  表示, 以編碼階段的中間特征圖譜為輸入, 則生成的基底矩陣為 ?;咨珊瘮?shù)用  可以一個殘差卷積 block 實現(xiàn),輸出通道數(shù)為 , 然后將輸出變形為   。下圖中(b) 為殘差卷積 block;(c) 為子空間注意力模塊 SSA,其中 basis vectors 即 為生成的基底向量。

          2、投影,如上圖中(c)的 projection, 通過正交線性投影將圖像特征  投影到子空間  中。用  表示信號子空間的正交投影矩陣,則  可由  計算得到,如下式:

          其中標(biāo)準(zhǔn)化項  是必要的,因為基底生成過程不能保證基向量間是相互正交的。最終 圖像特征  在信號子空間重建為 , 即  。投影運算其實僅包含線性矩陣運算,經(jīng)過 適當(dāng)?shù)淖冃危队斑\算是完全可微,在現(xiàn)代神經(jīng)網(wǎng)絡(luò)框架中易于實現(xiàn)。

          圖 1 NBNet網(wǎng)絡(luò)整體結(jié)構(gòu)

          3、NBNet具體實現(xiàn)和損失函數(shù)。NBNet整體結(jié)構(gòu)是典型的UNet形式,如上圖1,包括4個編碼階段和4個相應(yīng)的解碼階段。下采樣使用k4s2的卷積操作,上采樣使用反卷積。每個卷積層激活函數(shù)都使用LeakyReLU。

          提出的SSA模塊放置在跳轉(zhuǎn)連接中。因為大尺寸低層特征圖譜包含更多原始圖像的細(xì)節(jié)信息,因此以編碼階段低層特征圖譜為,解碼階段高層特征圖譜為。即利用上采樣的高層特征指導(dǎo)來自跳轉(zhuǎn)連接的低層特征投影到信號子空間中。經(jīng)投影變換后的特征與原始高層特征concat,再進行解碼。與傳統(tǒng)UNet形式結(jié)構(gòu)相比,NBNet中的低層特征在與高層特征融合前先由SSA模塊進行投影變換。最后一個解碼器的輸出通過一個線性3×3卷積層輸出全局殘差(針對有噪聲的輸入而言),再加上輸入后得到最終的去噪結(jié)果。

          以L1距離為網(wǎng)絡(luò)訓(xùn)練的損失函數(shù):

          實驗部分

          在合成數(shù)據(jù)和真實數(shù)據(jù)集上進行了大量實驗以驗證NBNet的有效性和先進性。其中子空間K=16。

          1、合成的高斯噪聲。測試集有Set5、LIVE1和BSD68。本文方法取得了最好PSNR值。

          2、SIDD Benchmark

          SIDD可以用作測試智能手機攝像頭的去噪性能基準(zhǔn),因此用SIDD驗證NBNet對真實圖像的去噪性能。下表和圖展示了性能指標(biāo)和計算量,本文方法NBNet在PSNR和SSIM兩個指標(biāo)上都比MIRNet有所提高,同時計算量和參數(shù)量大幅度降低。

          下圖是在SIDD Benchmark上的去噪實例。本文方法在點、線等弱紋理區(qū)域去噪更好。

          3、DND Benchmark

          DND Benchmark并沒有提供任何訓(xùn)練數(shù)據(jù),因此組合SIDD和Renoir數(shù)據(jù)集訓(xùn)練網(wǎng)絡(luò)。提交在SIDD Benchmark驗證數(shù)據(jù)上最好的模型到DND Benchmark。下表展示了性能指標(biāo),本文方法NBNet在PSNR指標(biāo)上比MIRNet有所提高,但計算量和參數(shù)量大幅度降低。

          下圖是在DND Benchmark上的去噪實例。本文方法更好地保持了紋理和銳度。

          4、消融實驗

          (1)為了驗證SSA模塊有效性,又選擇DnCNN為基線模型。嵌入SSA模塊后比DnCNN提供了0.55dB。

          (2)研究子空間K不同取值的影響,下表是在SIDD上的實驗結(jié)果。當(dāng)K=32是網(wǎng)絡(luò)不能收斂,因為第一個編碼階段的通道數(shù)是32,導(dǎo)致SSA模型不能有效的進行子空間投影。K=1是會造成信息的顯著丟失。K=8和16時性能很接近,說明子空間維數(shù)K在合理的范圍內(nèi)是一個魯棒的超參數(shù)。

          (3)研究投影過程中不同輸入的影響,下表是實驗結(jié)果。對比第 1 、 2 行,僅使用  生成基向量不能使網(wǎng)絡(luò)收玫。對比第 3、4行,僅使用  生成基向量得到的性能不好。當(dāng)使用  和  生成基向量,并對  進行投影時得到的性能最好,即最后一行

          結(jié)論

          本文以子空間投影的視角重新思考了圖像去噪問題。拋開復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計和精確的圖像噪聲建模,創(chuàng)新性的提出子空間基向量生成和投影操作,從而將全局結(jié)構(gòu)信息引入圖像去噪過程中,實現(xiàn)了更好的局部細(xì)節(jié)保持。這種子空間學(xué)習(xí)的方法有希望應(yīng)用于其它底層視覺任務(wù)中。

          本文亮點總結(jié)


          1.本文從圖像自適應(yīng)投影這一新視角出發(fā),提出一種新的圖像去噪網(wǎng)絡(luò)--NBNet,通過在特征空間中學(xué)習(xí)一系列重建基底使網(wǎng)絡(luò)能分離信號和噪聲。

          努力分享優(yōu)質(zhì)的計算機視覺相關(guān)內(nèi)容,歡迎關(guān)注:


          個人微信(如果沒有備注不拉群!
          請注明:地區(qū)+學(xué)校/企業(yè)+研究方向+昵稱



          下載1:何愷明頂會分享


          AI算法與圖像處理」公眾號后臺回復(fù):何愷明,即可下載。總共有6份PDF,涉及 ResNet、Mask RCNN等經(jīng)典工作的總結(jié)分析


          下載2:終身受益的編程指南:Google編程風(fēng)格指南


          AI算法與圖像處理」公眾號后臺回復(fù):c++,即可下載。歷經(jīng)十年考驗,最權(quán)威的編程規(guī)范!



          下載3 CVPR2021

          AI算法與圖像處公眾號后臺回復(fù):CVPR,即可下載1467篇CVPR 2020論文 和 CVPR 2021 最新論文

          點亮 ,告訴大家你也在看




          瀏覽 35
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  91精品国产成人观看 | 成人国产日韩AV网站 | 成人片黄色 | 在线精品福利 | chengrenavyingyin |