<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          GAN方法去模糊-DeblurGANv2

          共 2684字,需瀏覽 6分鐘

           ·

          2021-11-27 04:05

          ? ?作者:晟 沚? ? ? ? ??

          ? ? ? ??


          前 ?言


          ? ?DeblurGANv2是烏克蘭天主教大學(xué)的Orest Kupyn等人提出的一種基于GAN方法進(jìn)行盲運(yùn)動(dòng)模糊移除的方法。它在第一版DeblurGAN基礎(chǔ)上進(jìn)行改進(jìn)而來,通過引入Feature Pyramid Network與輕量型backbone等使得DeblurGANv2取得更快、更優(yōu)的性能。作者首次將FPN引入到去模糊中作為生成器的核心模塊。FPN可以與大量的backbone協(xié)作,可以輕松的在性能與效率方面取得均衡。FPN-Inception-ResNet-v2集成取得了SOTA性能,而FPN-MobileNet系列取得10-100倍的速度提升同時(shí)具有媲美其他SOTA方法的性能,可以達(dá)到實(shí)時(shí)性需求。除了在去模糊領(lǐng)域,DeblurGANv2取得了SOTA性能,它同時(shí)適用于其他圖像復(fù)原任務(wù)。在efficiency,quality, flexibility 三方面都取得了state-of-the-art 的效果。?

          作者將FPN架構(gòu)引入到去模糊問題中,同時(shí)采用了不同的backbone進(jìn)行網(wǎng)絡(luò)設(shè)計(jì),配合GAN以及內(nèi)容損失的訓(xùn)練學(xué)習(xí),DeblurGANv2取得了更快更優(yōu)的性能。論文的創(chuàng)新點(diǎn)包含:

          • Framework Level。對(duì)于生成器,為了更好的保準(zhǔn)生成質(zhì)量,作者構(gòu)建了一個(gè)基于FPN的去模糊框架,判別器方面采用帶有最小開方損失(least-square loss )的相對(duì)判別器(relativisticdiscriminator),并且分別結(jié)合了全局(global (image) )和局部(local (patch) )2個(gè)尺度的判別loss。

          • Backbone Level。采用了3種骨架網(wǎng)絡(luò),分別為Inception-ResNet-v2,MobileNet,MobileNet-DSC。Inception-ResNet-v2具有最好的精度,MobileNet和MobileNet-DSC具有更快的速度。?

          • Experiment Level。在3個(gè)指標(biāo)PSNR, SSIM, perceptual quality 都取得了很好的結(jié)果?;贛obileNet-DSC的DeblurGAN-v2比DeblurGAN快了11倍,并且只有4M大??;同時(shí)作者也表明該框架同樣適用于更廣義的圖像復(fù)原任務(wù)。


          01

          網(wǎng)絡(luò)結(jié)構(gòu)


          上圖給出了DeblurGANv2的架構(gòu)示意圖。下面將從不同的方面對(duì)其進(jìn)行簡單的介紹。

          1

          FPN


          現(xiàn)有的圖像復(fù)原任務(wù)往往采用類ResNet架構(gòu),或者采用多尺度輸入方式進(jìn)行圖像去模糊。然而,多尺度方式較為耗時(shí)且占用過多內(nèi)存。作者將目標(biāo)檢測中的FPN引入到圖像去模糊應(yīng)用中。

          作者所設(shè)計(jì)的FPN包含5個(gè)尺度的特征輸出,這些特征被上采樣到原始輸入四分之一大小并拼接作為一個(gè)整體(它包含多尺度信息),后接兩個(gè)上采樣模塊以復(fù)原到原始圖像大小并減少偽影。類似DeblurGAN,它同樣引入了全局殘差連接。輸入圖像歸一化到[-1, 1],在輸出部分添加tanh激活以確保生成圖像的動(dòng)態(tài)范圍。FPN除具有多尺度特征匯聚功能外,它還在精度與效率之間取得均衡。

          2

          Backbone


          該FPN框架支持多種backbone選擇,基于該即插即用屬于,可以根據(jù)性能與效率需求設(shè)計(jì)各式各樣的網(wǎng)絡(luò)架構(gòu)。作者默認(rèn)采用基于ImageNet預(yù)訓(xùn)練(包含更多語義相關(guān)特征)的模型的骨干網(wǎng)絡(luò)。以Inception-ResNet-v2作為骨干網(wǎng)絡(luò)追求更高的性能,其他如SE-ResNeXt同樣有效。

          為追求更高效以切合終端設(shè)備應(yīng)用,作者選擇將MobileNetv2及其變種作為骨干網(wǎng)絡(luò),這兩個(gè)網(wǎng)絡(luò)命名為:FPN-MobileNet,F(xiàn)PN-MobileNet-DSC。

          除了上述提到的骨干網(wǎng)絡(luò)外,其他相關(guān)骨干網(wǎng)絡(luò)均可作為該架構(gòu)的選擇。

          3

          雙尺度判別器



          不同于DeblurGAN選擇了WGAN-GP,作者在LSGAN基礎(chǔ)上適配了relativistic,該RaGAN-LS損失定義如下所示。相比WGAN-GP,它可以使得訓(xùn)練更快、更穩(wěn)定,同時(shí)生成的結(jié)果具有更高的感知質(zhì)量、更優(yōu)的銳利度。

          ?作者提到:對(duì)于高度非均勻模糊圖像,尤其是包含復(fù)雜目標(biāo)運(yùn)動(dòng)的圖像,全局尺度有助于判別器集成全空間上下文信息。為充分利用全局與局部特征,作者提出了采用雙尺度判別器進(jìn)行訓(xùn)練(它使得DeblurGANv2可以處理更大更復(fù)雜的真實(shí)模糊)。

          最終,作者構(gòu)建的損失函數(shù)定義如下:




          02

          訓(xùn)練過程

          ?在實(shí)驗(yàn)過程中,采用了GoPro、DVD以及NFS三個(gè)數(shù)據(jù)。在制作數(shù)據(jù)時(shí),將原始240fps視頻通過視頻插幀方法變?yōu)?840fps視頻,然后再同一時(shí)間窗下采用均值池化方式制作模糊數(shù)據(jù)。這種方式可以產(chǎn)生更為平滑而連續(xù)的模糊(可參考下圖ac為無插幀模糊,bd為插幀模糊)。

          GoPro數(shù)據(jù)集 :3214 blurry/clear 圖片對(duì),其中2103作訓(xùn)練,1111做測試。

          DVD數(shù)據(jù)集?:6708 blurry/clear 圖片對(duì)

          NFS 數(shù)據(jù)集:75個(gè)視頻



          03

          實(shí)驗(yàn)結(jié)果

          下圖給出了在GoPro測試集上的性能對(duì)比

          上表中數(shù)據(jù)看出:DeblurGANv2取得了SOTA性能。SRN在PSNR指標(biāo)上稍優(yōu),這是因?yàn)镈eblurGANv2的不是基于純MSE訓(xùn)練,但DeblurGANv2具有更高的SSIM指標(biāo)同時(shí)更低的計(jì)算量,節(jié)省了約78%的推理耗時(shí)。相比其他兩個(gè)次之去模糊方法,輕量型版本取得了類似性能但具有超100倍更快速度。值得一提的是,MobileNet-DSC僅需0.04s,近乎達(dá)到了實(shí)時(shí)性要求,這是截止目前僅有的更快且具有高性能的去模糊算法。

          下圖給出了Kohler數(shù)據(jù)及上的效果以及指標(biāo)對(duì)比。盡管SRN具有更高的指標(biāo),但DeblurGANv2具有更快的速度以及視覺效果,而SRN甚至出現(xiàn)了彩色偽影。


          代碼地址:https://github.com/VITA-Group/DeblurGANv2

          本文給出分別使用開源的模型的結(jié)果如下,先放一張模糊的原圖

          fpn_inception模型結(jié)果

          fpn_mobilenet模型結(jié)果







          ?

          END





          機(jī)器學(xué)習(xí)算法工程師


          ? ??? ? ? ? ? ? ? ? ? ? ? ??????????????????一個(gè)用心的公眾號(hào)


          ?









          瀏覽 109
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  婷婷丁香五月天激情 | 国产女人高潮视频 | 99色免费视频 | 亚洲成人黄色在线观看 | 欧美三级在线视频麻豆 |