保姆級(jí)計(jì)算機(jī)視覺(jué)學(xué)習(xí)路線
因工作需要,年初花了4個(gè)月左右時(shí)間學(xué)習(xí)了機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)相關(guān)的知識(shí),工作日每天大概學(xué)習(xí)4-6個(gè)小時(shí),周末每天大概10個(gè)小時(shí),工作中的需求應(yīng)對(duì)也得心應(yīng)手了。
想快速入門(mén)的話,從自己的經(jīng)驗(yàn)看,可以先不看高等數(shù)學(xué)和線性代數(shù),因?yàn)闄C(jī)器學(xué)習(xí)和深度學(xué)習(xí)中涉及的相關(guān)知識(shí)并不多。
視覺(jué)的知識(shí)部分建議分成兩部分學(xué)習(xí),第一部分傳統(tǒng)圖像處理,第二部分基于深度學(xué)習(xí)的圖像處理。
但我發(fā)現(xiàn),幾乎80%的CVer 都沒(méi)有從頭至尾深入的學(xué)習(xí)圖像處理方面的知識(shí)。
現(xiàn)在有了深度學(xué)習(xí),不需要人為提取特征了,所以很多人不再關(guān)注圖像底層的信息,而是直接越過(guò)這個(gè)根基去搭建模型,我覺(jué)得這是一個(gè)誤區(qū)。
計(jì)算機(jī)視覺(jué)的提升不在于搭建模型,而在于不斷調(diào)優(yōu)、改進(jìn)過(guò)程中積累的經(jīng)驗(yàn)。
我們?cè)撛趺瘁槍?duì)不同領(lǐng)域的圖像設(shè)置不同的參數(shù)?其中包括卷積核大小、網(wǎng)絡(luò)架構(gòu)、初始權(quán)重等等,不可能拿到一個(gè)模型,既適合醫(yī)學(xué)圖像,又適合人臉識(shí)別,這其中就需要n次從70%的精度調(diào)到95%以上中積累出經(jīng)驗(yàn)。
如果你決心要在這個(gè)領(lǐng)域深耕,那么圖像底層方面的知識(shí)堅(jiān)決不可跨越的,欲速則不達(dá)。
分享一套當(dāng)時(shí)我學(xué)習(xí)過(guò)的教程,有視頻、代碼、PPT等,幫助大家打好基礎(chǔ)。
跟著這個(gè)路線重新去梳理一下你的學(xué)習(xí)路線,相信計(jì)算機(jī)視覺(jué)水平一定會(huì)有質(zhì)的提升。
資源已經(jīng)整理好了,文末附下載方式!以下是詳細(xì)內(nèi)容介紹~
第一章:機(jī)器學(xué)習(xí)與計(jì)算機(jī)視覺(jué)
計(jì)算機(jī)視覺(jué)簡(jiǎn)介
技術(shù)背景
了解人工智能方向、熱點(diǎn)
計(jì)算機(jī)視覺(jué)簡(jiǎn)介
cv簡(jiǎn)介
cv技能樹(shù)構(gòu)建
應(yīng)用領(lǐng)域
機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)
線性與非線性變換
概率學(xué)基礎(chǔ)
熵
kl散度
梯度下降法
計(jì)算機(jī)視覺(jué)與機(jī)器學(xué)習(xí)基礎(chǔ)
圖像和視頻
圖像的取樣與量化
濾波
直方圖
上采樣
下采樣
卷積
直方圖均衡化算法
最近鄰差值
單/雙線性差值
特征選擇與特征提取
特征選擇方法
filter等
特征提取方法:PCA、LDA、SVD等
邊緣提取
Canny
Roberts
Sobel
Prewitt
Hessian特征
Haar特征
相機(jī)模型
小孔成像模型
相機(jī)模型
鏡頭畸變
透視變換
計(jì)算機(jī)視覺(jué)與機(jī)器學(xué)習(xí)進(jìn)階
聚類算法
kmeans
層次聚類
密度聚類
譜聚類
坐標(biāo)變換與視覺(jué)測(cè)量
左右手坐標(biāo)系及轉(zhuǎn)換
萬(wàn)向鎖
旋轉(zhuǎn)矩陣
四元數(shù)
三維計(jì)算機(jī)視覺(jué)
立體視覺(jué)
多視幾何
SIFT算法
三維計(jì)算機(jī)視覺(jué)與點(diǎn)云模型
PCL點(diǎn)云模型
spin image
三維重構(gòu)
SFM算法
圖像濾波器
直通濾波
體素濾波
雙邊濾波器
條件濾波
半徑濾波
圖像增加噪聲與降噪
OpenCV詳解
OpenCV算法解析
線性擬合
最小二乘法
RANSAC算法
哈希算法
DCT算法
漢明距離
圖像相似度
第二章:深度學(xué)習(xí)與計(jì)算機(jī)視覺(jué)
神經(jīng)網(wǎng)絡(luò)
深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)
深度學(xué)習(xí)簡(jiǎn)介
基本的深度學(xué)習(xí)架構(gòu)
神經(jīng)元
激活函數(shù)詳解(sigmoid、tanh、relu等)
感性認(rèn)識(shí)隱藏層
如何定義網(wǎng)絡(luò)層
損失函數(shù)
推理和訓(xùn)練
神經(jīng)網(wǎng)絡(luò)的推理和訓(xùn)練
bp算法詳解
歸一化
Batch Normalization詳解
解決過(guò)擬合
dropout
softmax
手推神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程
從零開(kāi)始訓(xùn)練神經(jīng)網(wǎng)絡(luò)
使用python從零開(kāi)始實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)訓(xùn)練
構(gòu)建神經(jīng)網(wǎng)絡(luò)的經(jīng)驗(yàn)總結(jié)
深度學(xué)習(xí)開(kāi)源框架
pytorch
tensorflow
caffe
mxnet
keras
優(yōu)化器詳解(GD,SGD,RMSprop等
