22課時、19大主題,CS 231n進(jìn)階版課程視頻上線
點(diǎn)擊上方“AI算法與圖像處理”,選擇加"星標(biāo)"或“置頂”
重磅干貨,第一時間送達(dá)
講 CS231n 的 Justin Johnson 在密歇根大學(xué)推出了一套計(jì)算機(jī)視覺的進(jìn)階課程。


課時 1:計(jì)算機(jī)視覺深度學(xué)習(xí)簡介,包括歷史背景和當(dāng)前發(fā)展概述;
課時 2:圖像分類,包括數(shù)據(jù)驅(qū)動方法、最近鄰算法、超參數(shù)和交叉驗(yàn)證;
課時 3:線性分類器,包括 Softmax 或 SVM 分類器和 L2 正則化;
課時 4:優(yōu)化,包括隨機(jī)梯度下降、動量、AdaGrad、Adam 和二階優(yōu)化器;
課時 5:神經(jīng)網(wǎng)絡(luò),包括特征轉(zhuǎn)換、全連接網(wǎng)絡(luò)、泛逼近(universal approximation )和凸性。

課時 6:反向傳播,包括計(jì)算圖、反向傳播和矩陣乘法示例;
課時 7:卷積網(wǎng)絡(luò),包括卷積、池化和批歸一化;
課時 8:CNN 架構(gòu),包括 AlexNet、VGG、ResNet、大小 VS 準(zhǔn)確性、分組和可分離卷積以及神經(jīng)架構(gòu)搜索;
課時 9:硬件和軟件,包括 CPU、GPU、TPU、動態(tài)與靜態(tài)圖以及 PyTorch 和 TensorFlow;
課時 10:神經(jīng)網(wǎng)絡(luò)訓(xùn)練 I,包括激活函數(shù)、數(shù)據(jù)預(yù)處理、權(quán)重初始化、數(shù)據(jù)增廣和正則化(Dropout 等);

課時 11:神經(jīng)網(wǎng)絡(luò)訓(xùn)練 II,包括學(xué)習(xí)率方案、超參數(shù)優(yōu)化、模型集成、遷移學(xué)習(xí)和大批量訓(xùn)練;
課時 12:遞歸網(wǎng)絡(luò),包括 RNN、LSTM、GRU、語言建模、序列到序列、圖像標(biāo)注和視覺問題;
課時 13:注意力,包括多模態(tài)注意力、自注意力和 Transformers;
課時 14:可視化和理解,包括特征可視化、對抗性示例以及 DeepDream 和風(fēng)格遷移;
課時 15:目標(biāo)檢測,包括單級檢測器和兩級檢測器;

課時 16:圖像分割,包括語義分割、實(shí)例分割和關(guān)鍵點(diǎn)估計(jì);
課時 17:3D 視覺,包括 3D 形狀表示、深度估計(jì)、3D 形狀預(yù)測以及立體像素、點(diǎn)云、SDF 和網(wǎng)格;
課時 18:視頻,包括視頻分類、早期和后期融合、3D CNN 和雙流網(wǎng)絡(luò);
課時 19:生成模型 I,包括監(jiān)督與無監(jiān)督學(xué)習(xí)、判別與生成模型、自回歸模型和變分自編碼器;
課時 20:生成模型 II,包括變分更強(qiáng)的自編碼器和生成對抗網(wǎng)絡(luò);

課時 21:強(qiáng)化學(xué)習(xí),包括強(qiáng)化學(xué)習(xí)問題設(shè)置、貝爾曼方程、Q 學(xué)習(xí)和策略梯度;
課時 22:課程總結(jié),包括課程回顧和計(jì)算機(jī)視覺的發(fā)展展望。

個人微信(如果沒有備注不拉群!) 請注明:地區(qū)+學(xué)校/企業(yè)+研究方向+昵稱

