計算機視覺知識點總結
點擊上方“小白學視覺”,選擇加"星標"或“置頂”
重磅干貨,第一時間送達
本文轉自:AI算法與圖像處理
本文轉自:AI算法與圖像處理
目錄:
1 經典卷積網絡
2 卷積、空洞卷積
3 正則化
4 全卷積網絡
5 1*1卷積核
6 感受野
7 常見損失
8 優(yōu)化算法
9 concat 和 add的區(qū)別
10 注意力機制
11 CNN(卷積神經網絡)、RNN(循環(huán)神經網絡)、DNN(深度神經網絡)
12 邊框回歸
13 非極大值回歸(NMS, Soft NMS)
14 激活函數
15 評價指標
16 batch size的選擇
17 Graph Convolutional Network(GCN)
計算機視覺四大基本任務(分類、定位、檢測、分割)
https://zhuanlan.zhihu.com/p/31727402
目標檢測解讀匯總
https://zhuanlan.zhihu.com/p/36402362
圖像語義分割綜述
https://zhuanlan.zhihu.com/p/37801090

AlexNet:https://blog.csdn.net/chaipp0607/article/details/72847422
VGG:https://blog.csdn.net/briblue/article/details/83792394
GoogleNet:https://blog.csdn.net/loveliuzz/article/details/79135583
ResNet:
https://blog.csdn.net/lanran2/article/details/79057994
https://blog.csdn.net/lanran2/article/details/80247515
Xception:https://blog.csdn.net/u014380165/article/details/75142710
DenseNet:https://blog.csdn.net/u014380165/article/details/75142664/
shufflenet:https://zhuanlan.zhihu.com/p/48261931

卷積神經網絡中十大拍案叫絕的操作【點擊可以跳轉】
卷積:https://www.zhihu.com/question/22298352
https://blog.csdn.net/kklots/article/details/17136059
https://blog.csdn.net/bea_tree/article/details/68954650
空洞卷積:https://www.zhihu.com/question/54149221/answer/323880412
https://zhuanlan.zhihu.com/p/50369448
batch normalization、group normalization:
https://blog.csdn.net/malefactor/article/details/51476961
https://zhuanlan.zhihu.com/p/43200897
https://zhuanlan.zhihu.com/p/56219719
dropout:https://blog.csdn.net/stdcoutzyx/article/details/49022443
L1、L2:
https://blog.csdn.net/zouxy09/article/details/24971995
https://blog.csdn.net/jinping_shi/article/details/52433975
https://www.cnblogs.com/gujianhan/p/6030639.html

https://zhuanlan.zhihu.com/p/40050371
https://www.zhihu.com/question/56024942
https://blog.csdn.net/chaipp0607/article/details/60868689
6 感受野
深度神經網絡中的感受野(Receptive Field):
https://zhuanlan.zhihu.com/p/28492837
損失函數改進方法總覽:
https://blog.csdn.net/u014380165/article/details/76946358
請問faster rcnn和ssd 中為什么用smooth l1 loss,和l2有什么區(qū)別? https://www.zhihu.com/question/58200555/answer/621174180
focal loss:https://zhuanlan.zhihu.com/p/32423092
交叉熵:https://blog.csdn.net/yimingsilence/article/details/52740638
https://blog.csdn.net/u014380165/article/details/77284921
對比損失(Contrastive Loss):
https://blog.csdn.net/autocyz/article/details/53149760
三元組損失(Triplet Loss):
https://blog.csdn.net/jcjx0315/article/details/77160273
Momentum:https://zhuanlan.zhihu.com/p/21486826
Nesterov Accelerated Gradient:https://zhuanlan.zhihu.com/p/22810533
如何理解神經網絡中通過add的方式融合特征?
https://www.zhihu.com/question/306213462/answer/562776112
計算機視覺中的注意力機制:
https://zhuanlan.zhihu.com/p/32928645
https://zhuanlan.zhihu.com/p/56501461
CNN(卷積神經網絡)、RNN(循環(huán)神經網絡)、DNN(深度神經網絡)的內部網絡結構有什么區(qū)別?
https://www.zhihu.com/question/34681168/answer/84061846
邊框回歸(Bounding Box Regression)詳解
https://blog.csdn.net/zijin0802034/article/details/77685438
NMS:https://blog.csdn.net/shuzfan/article/details/52711706
Soft NMS:
Soft NMS算法筆記
https://blog.csdn.net/u014380165/article/details/79502197
深度學習中的激活函數導引:
https://zhuanlan.zhihu.com/p/22142013
如何理解ReLU activation function?
https://www.zhihu.com/question/59031444/answer/177786603
請問人工神經網絡中的activation function的作用具體是什么?為什么ReLu要好過于tanh和sigmoid function?
https://www.zhihu.com/question/29021768/answer/43488153
目標檢測mAP
https://github.com/rafaelpadilla/Object-Detection-Metrics
語義分割(PA、MPA、MIoU、FWIoU)
https://zhuanlan.zhihu.com/p/61880018
https://link.zhihu.com/?target=https%3A//arxiv.org/abs/1704.06857
怎么選取訓練神經網絡時的Batch size?
https://www.zhihu.com/question/61607442/answer/440401209
深度學習中的batch的大小對學習效果有何影響?
https://www.zhihu.com/question/32673260/answer/71137399
如何理解 Graph Convolutional Network(GCN)?
https://www.zhihu.com/question/54504471/answer/332657604
交流群
歡迎加入公眾號讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器、自動駕駛、計算攝影、檢測、分割、識別、醫(yī)學影像、GAN、算法競賽等微信群(以后會逐漸細分),請掃描下面微信號加群,備注:”昵稱+學校/公司+研究方向“,例如:”張三 + 上海交大 + 視覺SLAM“。請按照格式備注,否則不予通過。添加成功后會根據研究方向邀請進入相關微信群。請勿在群內發(fā)送廣告,否則會請出群,謝謝理解~

