CNN真的需要下采樣(上采樣)嗎?
點(diǎn)擊上方“小白學(xué)視覺”,選擇加"星標(biāo)"或“置頂”
重磅干貨,第一時間送達(dá)
?
在常見的卷積神經(jīng)網(wǎng)絡(luò)中,采樣幾乎無處不在,以前是max_pooling,現(xiàn)在是strided卷積。


Input-->Conv-->DownSample_x_2-->Conv-->DownSample_x_2-->Conv-->DownSample_x_2-->GAP-->Conv1x1-->Softmax-->Output而分割網(wǎng)絡(luò)的范式變?yōu)椋ㄗ罱囊恍┪恼乱苍诳紤]用upsample+conv_1x1代替deconv),Input-->Conv-->DownSample_x_2-->Conv-->DownSample_x_2-->Conv-->DownSample_x_2-->Deconv_x_2-->Deconv_x_2-->Deconv_x_2-->Softmax-->Output這里暫時不考慮任何shortcut。
可是,我們不得不去想,下采樣,上采樣真的是必須的嗎?可不可能去掉呢?
?
一個很自然的想法,下采樣只是為了減小計算量和增大感受野,如果沒有下采樣,要成倍增大感受野,只有兩個選擇,空洞卷積和大卷積核。所以,第一步,在cifar10的分類上,我嘗試去掉了下采樣,將卷積改為空洞卷積,并且膨脹率分別遞增,模型結(jié)構(gòu)如下所示,

?
?



?
?


?
?

?
?


?
Input-->Conv(dilate_rate=1)-->Conv(dilate_rate=2)-->Conv(dilate_rate=4)-->Conv(dilate_rate=8)-->GAP-->Conv1x1-->Softmax-->Output分割網(wǎng)絡(luò)的范式將如下所示,Input-->Conv(dilate_rate=1)-->Conv(dilate_rate=2)-->Conv(dilate_rate=4)-->Conv(dilate_rate=8)-->Conv(dilate_rate=16)-->Conv(dilate_rate=32)-->Softmax-->Output

?
?
?在不同的?
?下的圖像,





?,cnn的目的就是找到這樣一個?
?,
?在這里是非線性激活函數(shù),







?,請自行將?
?對應(yīng)到卷積核大小上交流群
歡迎加入公眾號讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器、自動駕駛、計算攝影、檢測、分割、識別、醫(yī)學(xué)影像、GAN、算法競賽等微信群(以后會逐漸細(xì)分),請掃描下面微信號加群,備注:”昵稱+學(xué)校/公司+研究方向“,例如:”張三?+?上海交大?+?視覺SLAM“。請按照格式備注,否則不予通過。添加成功后會根據(jù)研究方向邀請進(jìn)入相關(guān)微信群。請勿在群內(nèi)發(fā)送廣告,否則會請出群,謝謝理解~
評論
圖片
表情
