<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          綜述:深度學(xué)習(xí)中的池化技術(shù)

          共 3101字,需瀏覽 7分鐘

           ·

          2021-02-21 22:18

          ↑ 點(diǎn)擊藍(lán)字?關(guān)注極市平臺(tái)

          作者丨仿佛若有光
          來源丨CV技術(shù)指南
          編輯丨極市平臺(tái)

          極市導(dǎo)讀

          ?

          本文對(duì)池化技術(shù)進(jìn)行了一個(gè)總結(jié),簡述了池化的作用與原理并解答了池化在使用時(shí)常見的問題,作者還對(duì)主要的幾種池化操作分類進(jìn)行了介紹。?>>加入極市CV技術(shù)交流群,走在計(jì)算機(jī)視覺的最前沿

          導(dǎo)言:

          池化是一個(gè)幾乎所有做深度學(xué)習(xí)的人都了解的一個(gè)技術(shù),大家對(duì)池化如何進(jìn)行前向傳播也都了解,池化的作用也了解一二。然而,池化如何回傳梯度呢,池化回傳梯度的原則是什么呢,最大池化與平均池化的區(qū)別是什么呢,什么時(shí)候選擇最大池化、什么時(shí)候選擇平均池化呢。

          主要用的池化操作有平均池化、最大池化、全局平均池化,全局自適應(yīng)池化。此外還有很多,如RoI池化、金字塔池化、重疊池化、隨機(jī)池化、雙線性池化等。
          在本文中將會(huì)對(duì)這些內(nèi)容一一總結(jié)。

          池化的作用

          1. 抑制噪聲,降低信息冗余。
          2. 提升模型的尺度不變性、旋轉(zhuǎn)不變性。
          3. 降低模型計(jì)算量。
          4. 防止過擬合。
          此外,最大池化作用:保留主要特征,突出前景,提取特征的紋理信息。平均池化作用:保留背景信息,突出背景。這兩者具體后面會(huì)介紹,這里只介紹它們的作用。

          池化回傳梯度

          池化回傳梯度的原則是保證傳遞的loss(或者說梯度)總和不變。根據(jù)這條原則很容易理解最大池化和平均池化回傳梯度方式的不同。
          平均池化的操作是取每個(gè)塊( 如2x2 )的平均值,作為下一層的一個(gè)元素值,因此在回傳時(shí),下一層的每一元素的loss(或者說梯度)要除以塊的大小( 如2x2 = 4),再分配到塊的每個(gè)元素上,這是因?yàn)樵搇oss來源于塊的每個(gè)元素。
          注意:如果塊的每個(gè)元素直接使用下一層的那個(gè)梯度,將會(huì)造成Loss之和變?yōu)樵瓉淼腘倍。具體如下圖。

          最大池化的操作是取每個(gè)塊的最大值作為下一層的一個(gè)元素值,因此下一個(gè)元素的Loss只來源于這個(gè)最大值,因此梯度更新也只更新這個(gè)最大值,其他值梯度為0。因此,最大池化需要在前向傳播中記錄最大值所在的位置,即max_id。這也是最大池化與平均池化的區(qū)別之一。具體如下圖所示:

          最大池化與平均池化的使用場景

          根據(jù)最大池化的操作,取每個(gè)塊中的最大值,而其他元素將不會(huì)進(jìn)入下一層。眾所周知,CNN卷積核可以理解為在提取特征,對(duì)于最大池化取最大值,可以理解為提取特征圖中響應(yīng)最強(qiáng)烈的部分進(jìn)入下一層,而其他特征進(jìn)入待定狀態(tài)(之所以說待定,是因?yàn)楫?dāng)回傳梯度更新一次參數(shù)和權(quán)重后,最大元素可能就不是在原來的位置取到了)。

          一般而言,前景的亮度會(huì)高于背景,因此,正如前面提到最大池化具有提取主要特征、突出前景的作用。但在個(gè)別場合,前景暗于背景時(shí),最大池化就不具備突出前景的作用了。

          因此,當(dāng)特征中只有部分信息比較有用時(shí),使用最大池化。如網(wǎng)絡(luò)前面的層,圖像存在噪聲和很多無用的背景信息,常使用最大池化。

          同理,平均池化取每個(gè)塊的平均值,提取特征圖中所有特征的信息進(jìn)入下一層。因此當(dāng)特征中所有信息都比較有用時(shí),使用平均池化。如網(wǎng)絡(luò)最后幾層,最常見的是進(jìn)入分類部分的全連接層前,常常都使用平均池化。這是因?yàn)樽詈髱讓佣及吮容^豐富的語義信息,使用最大池化會(huì)丟失很多重要信息。

          空間金字塔池化

          首先嘗試一下用幾句話介紹一下空間金字塔池化的背景,空間金字塔池化出自目標(biāo)檢測的SPPNet中,在目標(biāo)檢測中需要生成很多區(qū)域候選框,但這些候選框的大小都不一樣,這些候選框最后都需要進(jìn)入分類網(wǎng)絡(luò)對(duì)候選框中的目標(biāo)進(jìn)行分類,因此需要將候選框所在區(qū)域變成一個(gè)固定大小的向量,空間金字塔池化就是解決這么一個(gè)問題。

          下面是具體做法。

          對(duì)于一個(gè)通道數(shù)為C的feature map,一取全局最大值,得到一個(gè)1xC的張量,二將feature map分割成4塊,在每一塊上進(jìn)行最大池化,得到一個(gè)4xC的張量,三將feature map分成16塊,在每塊上進(jìn)行最大池化,得到一個(gè)16xC的張量,將這三個(gè)張量拼接起來,得到一個(gè)大小為21xC的張量。對(duì)于任意大小的feature map經(jīng)過這些操作都可以得到固定大小的張量。

          RoI池化

          RoI即Region of Interest,RoI池化是空間金字塔池化的一種特殊形式。

          在目標(biāo)檢測以前的方法中,使用selective search生成候選框,這些候選框是在特征提取網(wǎng)絡(luò)前就生成了,但經(jīng)過特征提取后該框的邊界不再是一個(gè)整數(shù),例如,對(duì)于一個(gè)輸入為800x800的圖片,其中有一個(gè)665x665的框內(nèi)框中一條狗,經(jīng)過有五次池化的特征提取網(wǎng)絡(luò)后該框的區(qū)域變?yōu)榱耍?65/32)*(665/32)=20.87*20.87的區(qū)域,因此RoI經(jīng)過了第一次量化,對(duì)這個(gè)邊界進(jìn)行取整為20,而分類網(wǎng)絡(luò)的輸入固定大小為7x7。因此將20x20的區(qū)域分成7x7塊,由于20/7=2.86也不是整數(shù),因此第二次量化,取2。然后在分塊上進(jìn)行最大池化生成一個(gè)7x7的大小。具體如上圖所示。

          這種方法經(jīng)過兩次量化得到的RoI于原始的RoI有了一定的偏差,當(dāng)候選框比較大時(shí),這個(gè)偏差影響不會(huì)很大,但候選框本身比較小時(shí),這個(gè)偏差相對(duì)來說比較大,嚴(yán)重影響結(jié)果。

          本部分引用自博客:https://blog.csdn.net/qq_33466954/article/details/106410410

          其他類型的池化

          重疊池化(Overlapping Pooling):一般而言,池化的窗口大小等于步長,因此池化作用區(qū)域不存在重合部分。所謂重疊池化,即池化窗口大小大于步長,池化作用區(qū)域存在重合部分,這種池化也許有一定的效果。

          隨機(jī)池化(Stochastic Pooling):在一個(gè)池化窗口內(nèi)對(duì)feature map的數(shù)值進(jìn)行歸一化得到每個(gè)位置的概率值,然后按照此概率值進(jìn)行隨機(jī)采樣選擇,即元素值大的被選中的概率也大。該池化的優(yōu)點(diǎn)是確保了特征圖中非最大響應(yīng)值的神經(jīng)元也有可能進(jìn)入下一層被提取,隨機(jī)池化具有最大池化的優(yōu)點(diǎn),同時(shí)由于隨機(jī)性它能夠避免過擬合。

          全局自適應(yīng)池化:其作用也是對(duì)于任意大小的feature map,都可以輸出指定的大小。這背后的原理不知是否與RoI池化類似,即對(duì)于輸入大小為HxW的feature map,指定輸出大小為7x7,我猜測其可能就是將HxW分成7x7塊再進(jìn)行最大池化或平均池化。但真實(shí)情況需要閱讀源碼方可知。若有知情讀者,可留言指出。

          此外還有雙線性池化等不是很常用的池化,這里不作過多介紹。



          推薦閱讀


          用Pytorch輕松實(shí)現(xiàn)28個(gè)視覺Transformer,開源庫 timm 了解一下?。ǜ酱a解讀)

          2021-02-19

          用90年代的古董電腦訓(xùn)練CNN是一種什么體驗(yàn)?

          2021-02-19

          綜述:輕量級(jí)CNN架構(gòu)設(shè)計(jì)

          2021-02-17



          #CV技術(shù)社群邀請(qǐng)函#

          △長按添加極市小助手
          添加極市小助手微信(ID : cvmart2)

          備注:姓名-學(xué)校/公司-研究方向-城市(如:小極-北大-目標(biāo)檢測-深圳)


          即可申請(qǐng)加入極市目標(biāo)檢測/圖像分割/工業(yè)檢測/人臉/醫(yī)學(xué)影像/3D/SLAM/自動(dòng)駕駛/超分辨率/姿態(tài)估計(jì)/ReID/GAN/圖像增強(qiáng)/OCR/視頻理解等技術(shù)交流群


          每月大咖直播分享、真實(shí)項(xiàng)目需求對(duì)接、求職內(nèi)推、算法競賽、干貨資訊匯總、與?10000+來自港科大、北大、清華、中科院、CMU、騰訊、百度等名校名企視覺開發(fā)者互動(dòng)交流~


          △點(diǎn)擊卡片關(guān)注極市平臺(tái),獲取最新CV干貨

          覺得有用麻煩給個(gè)在看啦~??
          瀏覽 117
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評(píng)論
          圖片
          表情
          推薦
          點(diǎn)贊
          評(píng)論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  午夜无码免费视频 | 色婷婷在线视频网站 | 国产一级片免费观看 | 日韩一级黄色电影 | 99精品6|