<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          卷積神經(jīng)網(wǎng)絡(luò)中用 1*1 卷積有什么作用或者好處呢?

          共 2376字,需瀏覽 5分鐘

           ·

          2021-01-25 17:04

          來自 |?知乎
          作者 |?陳運(yùn)錦
          地址 |?https://www.zhihu.com/question/56024942
          編輯 |?機(jī)器學(xué)習(xí)算法與自然語言處理公眾號
          本文僅作學(xué)術(shù)分享,若侵權(quán),請聯(lián)系后臺刪文處理

          目錄:
          part I ? :來源
          part II ?:應(yīng)用
          part III :作用(降維、升維、跨通道交互、增加非線性)
          part IV :從fully-connected layers的角度理解

          一、來源:[1312.4400] Network In Network (如果1×1卷積核接在普通的卷積層后面,配合激活函數(shù),即可實(shí)現(xiàn)network in network的結(jié)構(gòu))

          二、應(yīng)用:GoogleNet中的Inception、ResNet中的殘差模塊

          三、作用:
          1、降維(減少參數(shù))
          例子1 : GoogleNet中的3a模塊
          輸入的feature map是28×28×192
          1×1卷積通道為64
          3×3卷積通道為128
          5×5卷積通道為32
          左圖卷積核參數(shù):192 × (1×1×64) +192 × (3×3×128) + 192 × (5×5×32) = 387072
          右圖對3×3和5×5卷積層前分別加入了通道數(shù)為96和16的1×1卷積層,這樣卷積核參數(shù)就變成了:
          192 × (1×1×64) +(192×1×1×96+ 96 × 3×3×128)+(192×1×1×16+16×5×5×32)= 157184

          同時在并行pooling層后面加入1×1卷積層后也可以降低輸出的feature map數(shù)量(feature map尺寸指W、H是共享權(quán)值的sliding window,feature map 的數(shù)量就是channels)
          左圖feature map數(shù)量:64 + 128 + 32 + 192(pooling后feature map不變) = 416 (如果每個模塊都這樣,網(wǎng)絡(luò)的輸出會越來越大)
          右圖feature map數(shù)量:64 + 128 + 32 + 32(pooling后面加了通道為32的1×1卷積) = 256
          GoogLeNet利用1×1的卷積降維后,得到了更為緊湊的網(wǎng)絡(luò)結(jié)構(gòu),雖然總共有22層,但是參數(shù)數(shù)量卻只是8層的AlexNet的十二分之一(當(dāng)然也有很大一部分原因是去掉了全連接層)



          例子2:ResNet中的殘差模塊
          假設(shè)上一層的feature map是w*h*256,并且最后要輸出的是256個feature map
          左側(cè)操作數(shù):w*h*256*3*3*256 =589824*w*h
          右側(cè)操作數(shù):w*h*256*1*1*64 + w*h*64*3*3*64 +w*h*64*1*1*256 = 69632*w*h,,左側(cè)參數(shù)大概是右側(cè)的8.5倍。(實(shí)現(xiàn)降維,減少參數(shù))

          2、升維(用最少的參數(shù)拓寬網(wǎng)絡(luò)channal)
          例子:上一個例子中,不僅在輸入處有一個1*1卷積核,在輸出處也有一個卷積核,3*3,64的卷積核的channel是64,只需添加一個1*1,256的卷積核,只用64*256個參數(shù)就能把網(wǎng)絡(luò)channel從64拓寬四倍到256。
          3、跨通道信息交互(channal 的變換)
          例子:使用1*1卷積核,實(shí)現(xiàn)降維和升維的操作其實(shí)就是channel間信息的線性組合變化,3*3,64channels的卷積核后面添加一個1*1,28channels的卷積核,就變成了3*3,28channels的卷積核,原來的64個channels就可以理解為跨通道線性組合變成了28channels,這就是通道間的信息交互。
          注意:只是在channel維度上做線性組合,W和H上是共享權(quán)值的sliding window
          4、增加非線性特性
          1*1卷積核,可以在保持feature map尺度不變的(即不損失分辨率)的前提下大幅增加非線性特性(利用后接的非線性激活函數(shù)),把網(wǎng)絡(luò)做的很deep。

          備注:一個filter對應(yīng)卷積后得到一個feature map,不同的filter(不同的weight和bias),卷積以后得到不同的feature map,提取不同的特征,得到對應(yīng)的specialized neuro。

          四、從fully-connected layers的角度來理解1*1卷積核
          將其看成全連接層
          左邊6個神經(jīng)元,分別是a1—a6,通過全連接之后變成5個,分別是b1—b5
          左邊6個神經(jīng)元相當(dāng)于輸入特征里面的channels:6
          右邊5個神經(jīng)元相當(dāng)于1*1卷積之后的新的特征channels:5
          左邊 W*H*6 經(jīng)過 1*1*5的卷積核就能實(shí)現(xiàn)全連接

          In Convolutional Nets, there is no such thing as “fully-connected layers”. There are only convolution layers with 1x1 convolution kernels and a full connection table– Yann LeCun

          參考:https://iamaaditya.github.io/2016/03/one-by-one-convolution/



          重磅!

          AI有道的視頻號開通啦!會持續(xù)以有趣的視頻形式給大家?guī)?AI 領(lǐng)域的資源、干貨、教程和前沿知識,簡單有趣、寓教于樂!目前已經(jīng)發(fā)布了機(jī)器學(xué)習(xí)路線、深度學(xué)習(xí)路線、前沿 Paper 學(xué)習(xí)路線的思維導(dǎo)圖。趕緊掃描下方二維碼關(guān)注這個有趣的視頻好吧!


          感謝你的分享,點(diǎn)贊,在看三??

          瀏覽 45
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  日本特色特黄A级片 | 豆花成人在线 | av婷婷综合在线网 | 乱伦一级黄片 | 亚洲欧美一区二区三区久本道 |