圖解:卷積神經(jīng)網(wǎng)絡(luò)數(shù)學(xué)原理解析
原標(biāo)題 | Gentle Dive into Math Behind Convolutional Neural Networks
作 者 | Piotr Skalski 編 輯 | Pita
翻 譯 | 通夜(中山大學(xué))、had_in(電子科技大學(xué))
介紹

數(shù)字圖像的數(shù)據(jù)結(jié)構(gòu)?

圖2. 數(shù)字圖像的數(shù)據(jù)結(jié)構(gòu)??
卷積


圖3. 核卷積的例子?

圖4. 通過(guò)核卷積得到邊緣[原圖像:https://www.maxpixel.net/Idstein-Historic-Center-Truss-Facade-Germany-3748512]?
有效卷積和相同卷積

圖5. 像素位置的影響?

步幅卷積

圖6. 步幅卷積的例子?

過(guò)渡到三維


圖7. 三維卷積
卷積層
圖片

圖8. 張量維度
連接剪枝和參數(shù)共享

圖9. 連接剪枝和參數(shù)共享
卷積層反向傳播


圖10. 單卷積層的輸入和輸出的正向和反向傳播?



圖11. 全卷積
池化層

圖12. 最大值池化的例子??
池化層反向傳播

圖13.? 最大值池化的反向傳播??
結(jié)論
本文是“神經(jīng)網(wǎng)絡(luò)之謎”系列文章的另一部分,如果您還沒(méi)有機(jī)會(huì)閱讀其他文章,請(qǐng)閱讀其他文章(https://towardsdatascience.com/preventing-deep-neural-network-from-overfitting-953458db800a)。另外,如果你喜歡我所做的工作,在Twitter和Medium上關(guān)注我,也可以看看我正在做的其他項(xiàng)目,如GitHub(https://github.com/SkalskiP)和Kaggle(https://www.kaggle.com/skalskip)。保持好奇心!
via https://towardsdatascience.com/gentle-dive-into-math-behind-convolutional-neural-networks-79a07dd44cf9
