<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          NAM: 一種新的注意力計(jì)算方式,無(wú)需額外的參數(shù) | 代碼開(kāi)源

          共 1716字,需瀏覽 4分鐘

           ·

          2021-12-25 00:57

          點(diǎn)擊下方AI算法與圖像處理”,一起進(jìn)步!

          重磅干貨,第一時(shí)間送達(dá)


          導(dǎo)讀

          本文介紹了一種新的計(jì)算注意力的方式,相比于之前的注意力機(jī)制,無(wú)需額外的全連接,卷積等額外的計(jì)算和參數(shù),直接使用BN中的縮放因此來(lái)計(jì)算注意力權(quán)重,并通過(guò)增加正則化項(xiàng)來(lái)進(jìn)一步抑制不顯著的特征。


          代碼:https://github.com/Christian-lyc/NAM


          論文https://arxiv.org/abs/2111.12419


          摘要:本文提出一種基于歸一化的注意力模塊(NAM),可以降低不太顯著的特征的權(quán)重,這種方式在注意力模塊上應(yīng)用了稀疏的權(quán)重懲罰,這使得這些權(quán)重在計(jì)算上更加高效,同時(shí)能夠保持同樣的性能。我們?cè)赗esNet和MobileNet上和其他的注意力方式進(jìn)行了對(duì)比,我們的方法可以達(dá)到更高的準(zhǔn)確率。

          1、介紹

          注意力機(jī)制在近年來(lái)大熱,注意力機(jī)制可以幫助神經(jīng)網(wǎng)絡(luò)抑制通道中或者是空間中不太顯著的特征。之前的很多的研究聚焦于如何通過(guò)注意力算子來(lái)獲取顯著性的特征。這些方法成功的發(fā)現(xiàn)了特征的不同維度之間的互信息量。但是,缺乏對(duì)權(quán)值的貢獻(xiàn)因子的考慮,而這個(gè)貢獻(xiàn)因子可以進(jìn)一步的抑制不顯著的特征。因此,我們瞄準(zhǔn)了利用權(quán)值的貢獻(xiàn)因子來(lái)提升注意力的效果。我們使用了Batch Normalization的縮放因子來(lái)表示權(quán)值的重要程度。這樣可以避免如SE,BAM和CBAM一樣增加全連接層和卷積層。這樣,我們提出了一個(gè)新的注意力方式:基于歸一化的注意力(NAM)。

          2、方法

          我們提出的NAM是一種輕量級(jí)的高效的注意力機(jī)制,我們采用了CBAM的模塊集成方式,重新設(shè)計(jì)了通道注意力和空間注意力子模塊,這樣,NAM可以嵌入到每個(gè)網(wǎng)絡(luò)block的最后。對(duì)于殘差網(wǎng)絡(luò),可以嵌入到殘差結(jié)構(gòu)的最后。對(duì)于通道注意力子模塊,我們使用了Batch Normalization中的縮放因子,如式子(1),縮放因子反映出各個(gè)通道的變化的大小,也表示了該通道的重要性。為什么這么說(shuō)呢,可以這樣理解,縮放因子即BN中的方差,方差越大表示該通道變化的越厲害,那么該通道中包含的信息會(huì)越豐富,重要性也越大,而那些變化不大的通道,信息單一,重要性小。

          因此,通道注意力子模塊如圖1,式(2),用表示最后得到的輸出特征,γ是每個(gè)通道的縮放因子,因此,每個(gè)通道的權(quán)值可以得到,如果對(duì)空間中的每個(gè)像素使用同樣的歸一化方法,就可以得到空間注意力的權(quán)重,式(3),就叫做像素歸一化。像素注意力見(jiàn)圖2,輸出為

          為了抑制不重要的特征,我們?cè)趽p失函數(shù)中加入了一個(gè)正則化項(xiàng),如(4)式,

          3、實(shí)驗(yàn)

          我們將NAM和SE,BAM,CBAM,TAM在ResNet和MobileNet上,在CIFAR100數(shù)據(jù)集和ImageNet數(shù)據(jù)集上進(jìn)行了對(duì)比,我們對(duì)每種注意力機(jī)制都使用了同樣的預(yù)處理和訓(xùn)練方式,對(duì)比結(jié)果表示,在CIFAR100上,單獨(dú)使用NAM的通道注意力或者空間注意力就可以達(dá)到超越其他方式的效果。在ImageNet上,同時(shí)使用NAM的通道注意力和空間注意力可以達(dá)到超越其他方法的效果。


          努力分享優(yōu)質(zhì)的計(jì)算機(jī)視覺(jué)相關(guān)內(nèi)容,歡迎關(guān)注:

          交流群


          歡迎加入公眾號(hào)讀者群一起和同行交流,目前有美顏、三維視覺(jué)、計(jì)算攝影、檢測(cè)、分割、識(shí)別、醫(yī)學(xué)影像、GAN算法競(jìng)賽等微信群


          個(gè)人微信(如果沒(méi)有備注不拉群!
          請(qǐng)注明:地區(qū)+學(xué)校/企業(yè)+研究方向+昵稱(chēng)



          下載1:何愷明頂會(huì)分享


          AI算法與圖像處理」公眾號(hào)后臺(tái)回復(fù):何愷明,即可下載。總共有6份PDF,涉及 ResNet、Mask RCNN等經(jīng)典工作的總結(jié)分析


          下載2:終身受益的編程指南:Google編程風(fēng)格指南


          AI算法與圖像處理」公眾號(hào)后臺(tái)回復(fù):c++,即可下載。歷經(jīng)十年考驗(yàn),最權(quán)威的編程規(guī)范!



          下載3 CVPR2021

          AI算法與圖像處公眾號(hào)后臺(tái)回復(fù):CVPR,即可下載1467篇CVPR?2020論文 和 CVPR 2021 最新論文




          瀏覽 53
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  免费国产日本 | 69爱爱视频 | 亚洲第一中文字幕 | 成人一级黄片免费 | 男女直接拍拍 |