<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          讓Dropout在圖像超分領(lǐng)域重?zé)ü獠剩?/h1>

          共 4596字,需瀏覽 10分鐘

           ·

          2021-12-28 23:49

          ↑ 點(diǎn)擊藍(lán)字?關(guān)注極市平臺

          作者丨h(huán)appy
          來源丨AIWalker
          編輯丨極市平臺

          極市導(dǎo)讀

          ?

          Dropout不適用于low-level任務(wù)已成為常識性認(rèn)知,卻鮮少有學(xué)者對其背后的機(jī)理進(jìn)行挖掘分析。本文通過充分的實(shí)驗(yàn)與分析得出:合理使用dropout有益于超分模型性能提升,并改善其泛化性能。如此有意義的研究,何不跟著筆者一起觀賞一番呢??>>加入極市CV技術(shù)交流群,走在計算機(jī)視覺的最前沿

          論文鏈接:https://arxiv.org/pdf/2112.12089.pdf

          本文是 X-Pixel 團(tuán)隊關(guān)于dropout在圖像超分中應(yīng)用的探索。Dropout不適用于low-level任務(wù)已成為常識性認(rèn)知,卻鮮少有學(xué)者對其背后的機(jī)理進(jìn)行挖掘分析。本文通過充分的實(shí)驗(yàn)與分析得出:合理使用dropout有益于超分模型性能提升,并改善其泛化性能。如此有意義的研究,何不跟著筆者一起觀賞一番呢?

          Abstract

          Dropout有助于緩解high-level視覺任務(wù)中的過擬合問題,但在low-level視覺任務(wù)(如圖像超分)中卻鮮少應(yīng)用。作為經(jīng)典的回歸問題,SR具有與high-level任務(wù)不同的行為:對dropout操作非常敏感。

          然而,本文研究表明:合理的使用dropout有益于SR模型,提升其泛化性能。具體來說,dropout更適合于嵌入到網(wǎng)絡(luò)的尾部,并對于多退化情形幫助極大。下圖給出了不同配置下采用Dropout前后的性能對比,可以看到:引入dropout可以大幅提升模型的泛化性能,甚至可以將SRResNet的提升到優(yōu)于RRDB的程度。重要的是,添加dropout僅需一行code。真可謂:One line of code is worth a ten-fold increase in the model parameters.

          該發(fā)現(xiàn)打破了我們的常識并啟發(fā)我們探索其工作機(jī)理。我們采用兩種分析工具(Channel Saliency Map與Deep Degradation Representation)進(jìn)行分析,分析結(jié)果為實(shí)驗(yàn)發(fā)現(xiàn)提供了佐證并為SR模型的理解提供了新視角。

          Observation

          關(guān)于如何將Dropout引入到超分網(wǎng)絡(luò)中,我們做了很多嘗試并在不同配置下得出了完全不同的行為表現(xiàn),見上圖。

          • Dropout is harmful for SR. 該實(shí)驗(yàn)為常規(guī)超分配置,即bicubic退化。dropout則為廣泛采用的通道級形式(見上圖a)。正如預(yù)期,dropout會導(dǎo)致模型性能大幅下降(與常識相一致)。
          • Dropout does not affect SR. 我們還發(fā)現(xiàn)一個與上述結(jié)論相悖的特例(見上圖b),即僅在最后卷積之前添加dropout。此時,dropout對于模型性能無影響,這意味著:那一層的特征可以隨機(jī)masked且不會影響回歸結(jié)果。這些特征發(fā)生了什么?這是否意味著回歸與分類網(wǎng)絡(luò)具有某些共性呢?
          • Dropout is beneficial for SR. 最后的發(fā)現(xiàn)就更有意思了(見上圖c和d),在多退化配置下,dropout有益于SR。這意味著:dropout可以一定程度下改善超分模型的泛化性能。

          上述實(shí)驗(yàn)結(jié)果為我們提供了尋找low-level任務(wù)中dropout有效性的線索。我們將從不同角度對其進(jìn)行分析,如dropout使用策略、dropout的工作機(jī)制。

          Apply Dropout in SR Network

          為探索Dropout的實(shí)用策略,我們以SRResNet、RRDB作為基線進(jìn)行嘗試。影響dropout使用的主要有兩點(diǎn):(1) 使用位置;(2) 使用策略,即維度和概率。

          上圖給出了dropout的不同使用位置示意圖,可以劃分為三大類:

          • dropout before the last-conv. 該情形見上圖a,這也是本文最終的發(fā)現(xiàn)與結(jié)論;
          • dropout at middle of network. 該情形見上圖a,即作用在body部分;
          • dropout in residual network. 該情形見上圖c與b。

          除了使用位置外,維度與概率是另一個重要的因素。在維度方面,有channel與element兩種形式:channel形式會隨機(jī)丟棄整個changnel,而element則隨機(jī)丟棄所有特征的某些element。

          丟棄概率則會決定了channel/element的丟棄比例。在分類網(wǎng)絡(luò)中,50%的概率不會影響最終的結(jié)果但會提升泛化性能。然而,該概率對于SR來說過大。為獲得可能的增益且不影響模型,我們首先測試了三種概率:10%、20%以及30%。

          總而言之,我們具有八個候選位置、兩個候選維度以及三個候選概率。然而,大部分結(jié)果是有害的。last-conv與channel形式drop的組合不會影響SR性能,且有益于多退化配置下的超分。

          Experiments

          How to apply Dropout

          在該部分實(shí)驗(yàn)中,作者以bicubic退化配置探索Dropout的使用方式。上圖給出了關(guān)于dropout實(shí)用位置、概率以及形式的實(shí)驗(yàn)結(jié)果對比(注:bicubic退化配置),從中可以看到:

          • 不同的dropout位置具有完全不同的性能。當(dāng)采用單個dropout時,越靠近模型尾部性能越好;當(dāng)采用多個dropout時,越多的dropout導(dǎo)致越多的性能下降??偠灾?,last-conv方案性能最佳。
          • element形式的dropout傾向于降低模型性能,而channel形式dropout則具有更好的性能
          • 更大的dropout概率會帶來負(fù)面影響,在該配置下10%會是一個不錯的選擇。
          • last-conv+channel的實(shí)用組合可以帶來有意義且魯棒的結(jié)果。

          Multi-degradation setting

          在該部分實(shí)驗(yàn),作者采用Real-ESRGAN一文的高階退化方式進(jìn)行模型訓(xùn)練。

          上表給出了不同配置下使用dropout前后的性能對比,從中可以看到:

          • 在多退化配置下,引入dropout可以大幅改善模型的性能。最大性能提升高達(dá)0.78dB(Real-SRResNet)與0.95dB(Real-RRDB)。
          • 表中紅色標(biāo)注表示使用Dropout后,SRResNet的性能超越了RRDB。

          上圖給出了使用dropout前后模型的可視化效果對比,可以看到:使用dropout的模型具有更好的內(nèi)容重建、偽影移除以及降噪效果??偠灾?,dropout可以改善多退化配置超分模型性能。

          此外,作者還在bilinear、NN及其與噪聲組合數(shù)據(jù)上進(jìn)行了性能驗(yàn)證。可以看到:對于“域外”測試集(NN),引入dropout仍可以看到可見的性能提升。這說明:Dropout可以提升模型對于未知退化的泛化性能

          上表給出了關(guān)于dropout概率的消融分析,可以看到:

          • 對于Real-SRResNet而言,10%-90%的概率均有益于性能提升;
          • 對于Real-SRResNet,默認(rèn)選擇p=0.7;對于Real-RRDB,默認(rèn)選擇p=0.5.

          Interpretation

          在得到上述結(jié)果之后,我們非常好奇:引入dropout后到底發(fā)生了什么,它又是如何改善模型泛化性能的。接下來,作者從模型可解釋性與可視化兩個角度進(jìn)行了分析。

          上圖給出了PSNR與顯著性圖之間的相關(guān)性。當(dāng)我們對某些特征進(jìn)行mask后,我們可以得到不同的PSNR值,低PSNR對應(yīng)了更亮的顯著性圖,更亮的只意味著對超分結(jié)果的更大影響。很明顯:不同特征對于最終的結(jié)果影響程度是不一樣的

          那么dropout會平衡特征的重要性,打破co-adapting嗎?正如上圖所示,引入dropout后,特征與屬性圖得到了平衡。

          為進(jìn)一步驗(yàn)證,我們zero某些通道并線性縮放其他特征,結(jié)果見上圖??梢钥吹剑?strong style="color: black;">未使用dropout訓(xùn)練的Real-SRResNet模型性能出現(xiàn)了嚴(yán)重下降;而使用了dropout訓(xùn)練的模型則保持不變。也就是說,對于使用dropout的模型來首,PSNR不再僅僅依賴于特定的幾個通道。哪怕丟棄到三分之特征仍可保持性能不變??偠灾?,某些特征對于重建更為重要,而****dropout可以平衡不同特征的重要性

          評估泛化性能最直接的方式是在更寬范圍數(shù)據(jù)集上進(jìn)行測試,但對于模型泛化性的預(yù)測非常難。本文采用DDR工具進(jìn)行了分析(DDR說明:網(wǎng)絡(luò)處理多退化的時候可能是先給他們分分類再分別處理。也就是說:分的越開(越不集中)泛化性越差),結(jié)果見上圖。從中可以看到:

          • SRResNet的聚集程度弱于Real-SRResNet,這說明:相比bicubic退化,采用更多退化類型數(shù)據(jù)訓(xùn)練的模型具有更好的泛化性能;
          • 相比Real-SRResNet(p=0),Real-SRResNet(p=0.9)引入Dropout進(jìn)一步提升了聚集程度。這說明:Dropout可以進(jìn)一步提升Real-SRResNet的泛化性能
          • 作者進(jìn)一步引入了CHI(Calinski-Harabaz Index)指標(biāo)描述聚類分離度(CHI越低意味著更優(yōu)的泛化性能)。CHI會隨dropout概率提升而降低,進(jìn)一步說明:dropout有助于改善超分模型的泛化性能。
          • 一個有意思的發(fā)現(xiàn):帶噪數(shù)據(jù)的分布總是“特立獨(dú)行”。這與前面表中的結(jié)果相一致,噪聲數(shù)據(jù)的性能總是遠(yuǎn)弱于clean數(shù)據(jù)。

          為驗(yàn)證:dropout會不會改變模型的收斂特性。作者以Real-SRResNet、Real-RRDB以及SwinIR進(jìn)行了對比,見上圖??梢钥吹剑?strong style="color: black;">dropout不會改變模型的收斂特性,收斂曲線幾乎一致,同時具有更優(yōu)的性能。最后貼上所得dropout使用方案對SwinIR性能影響,見下圖??梢钥吹剑?strong style="color: black;">采用Dropout訓(xùn)練后,SwinIR的性能得到了進(jìn)一步提升,最高提升達(dá)0.46dB。這進(jìn)一步說明了所得方案的通用性。

          如果覺得有用,就請分享到朋友圈吧!

          △點(diǎn)擊卡片關(guān)注極市平臺,獲取最新CV干貨

          公眾號后臺回復(fù)”長尾學(xué)習(xí)綜述“獲取顏水成等最新深度長尾學(xué)習(xí)綜述PDF


          極市干貨
          課程/比賽:珠港澳人工智能算法大賽保姆級零基礎(chǔ)人工智能教程
          算法trick目標(biāo)檢測比賽中的tricks集錦從39個kaggle競賽中總結(jié)出來的圖像分割的Tips和Tricks
          技術(shù)綜述:一文弄懂各種loss function工業(yè)圖像異常檢測最新研究總結(jié)(2019-2020)


          #?CV技術(shù)社群邀請函?#

          △長按添加極市小助手
          添加極市小助手微信(ID : cvmart4)

          備注:姓名-學(xué)校/公司-研究方向-城市(如:小極-北大-目標(biāo)檢測-深圳)


          即可申請加入極市目標(biāo)檢測/圖像分割/工業(yè)檢測/人臉/醫(yī)學(xué)影像/3D/SLAM/自動駕駛/超分辨率/姿態(tài)估計/ReID/GAN/圖像增強(qiáng)/OCR/視頻理解等技術(shù)交流群


          每月大咖直播分享、真實(shí)項(xiàng)目需求對接、求職內(nèi)推、算法競賽、干貨資訊匯總、與?10000+來自港科大、北大、清華、中科院、CMU、騰訊、百度等名校名企視覺開發(fā)者互動交流~



          覺得有用麻煩給個在看啦~??
          瀏覽 59
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報

          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  在线视频黄色国产 | 曰韩色逼视频 | 无码专区视频 | 成人性生交大免费看 | www.91熊猫成人网 |