22張深度學(xué)習(xí)精煉圖筆記總結(jié)(附原版下載)

來(lái)源:邁微AI研習(xí)社 本文約7800字,建議閱讀10分鐘 本文介紹了吳恩達(dá)在推特上展示了一份由 TessFerrandez 完成的深度學(xué)習(xí)專項(xiàng)課程信息圖,這套信息圖優(yōu)美地記錄了深度學(xué)習(xí)課程的知識(shí)與亮點(diǎn)。

一、深度學(xué)習(xí)基礎(chǔ) 1. 深度學(xué)習(xí)基本概念 3. 淺層網(wǎng)絡(luò)的特點(diǎn) 4. 深度神經(jīng)網(wǎng)絡(luò)的特點(diǎn) 5. 偏差與方差 6. 正則化 7. 最優(yōu)化 8. 超參數(shù) 9. 結(jié)構(gòu)化機(jī)器學(xué)習(xí)過(guò)程 10. 誤差分析 11. 訓(xùn)練集、開發(fā)集與測(cè)試集 12. 其它學(xué)習(xí)方法 二、卷積網(wǎng)絡(luò) 13. 卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ) 14. 經(jīng)典卷積神經(jīng)網(wǎng)絡(luò) 15. 特殊卷積神經(jīng)網(wǎng)絡(luò) 16. 實(shí)踐建議 17. 目標(biāo)檢測(cè)算法 18. 人臉識(shí)別 19. 風(fēng)格遷移 三、循環(huán)網(wǎng)絡(luò) 20. 循環(huán)神經(jīng)網(wǎng)絡(luò)基礎(chǔ) 21. NLP 中的詞表征 22. 序列到序列
1. 深度學(xué)習(xí)基本概念

2. Logistic回歸

3. 淺層網(wǎng)絡(luò)的特點(diǎn)

sigmoid:sigmoid 函數(shù)常用于二分分類問題,或者多分類問題的最后一層,主要是由于其歸一化特性。sigmoid 函數(shù)在兩側(cè)會(huì)出現(xiàn)梯度趨于零的情況,會(huì)導(dǎo)致訓(xùn)練緩慢。 tanh:相對(duì)于 sigmoid,tanh 函數(shù)的優(yōu)點(diǎn)是梯度值更大,可以使訓(xùn)練速度變快。
ReLU:可以理解為閾值激活(spiking model 的特例,類似生物神經(jīng)的工作方式),該函數(shù)很常用,基本是默認(rèn)選擇的激活函數(shù),優(yōu)點(diǎn)是不會(huì)導(dǎo)致訓(xùn)練緩慢的問題,并且由于激活值為零的節(jié)點(diǎn)不會(huì)參與反向傳播,該函數(shù)還有稀疏化網(wǎng)絡(luò)的效果。Leaky ReLU:避免了零激活值的結(jié)果,使得反向傳播過(guò)程始終執(zhí)行,但在實(shí)踐中很少用。
4. 深度神經(jīng)網(wǎng)絡(luò)的特點(diǎn)

5. 偏差與方差

6. 正則化

7. 最優(yōu)化


8. 超參數(shù)

依靠經(jīng)驗(yàn): 聆聽自己的直覺,設(shè)置感覺上應(yīng)該對(duì)的參數(shù)然后看看它是否工作,不斷嘗試直到累趴。 網(wǎng)格搜索: 讓計(jì)算機(jī)嘗試一些在一定范圍內(nèi)均勻分布的數(shù)值。 隨機(jī)搜索: 讓計(jì)算機(jī)嘗試一些隨機(jī)值,看看它們是否好用。 貝葉斯優(yōu)化: 使用類似 MATLAB bayesopt 的工具自動(dòng)選取最佳參數(shù)——結(jié)果發(fā)現(xiàn)貝葉斯優(yōu)化的超參數(shù)比你自己的機(jī)器學(xué)習(xí)算法還要多,累覺不愛,回到依靠經(jīng)驗(yàn)和網(wǎng)格搜索方法上去。
9. 結(jié)構(gòu)化機(jī)器學(xué)習(xí)過(guò)程

10. 誤差分析

11. 訓(xùn)練集、開發(fā)集與測(cè)試集

12. 其它學(xué)習(xí)方法

13. 卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)



14. 經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)

LeNet·5:手寫識(shí)別分類網(wǎng)絡(luò),這是第一個(gè)卷積神經(jīng)網(wǎng)絡(luò),由 Yann LeCun 提出。 AlexNet:圖像分類網(wǎng)絡(luò),首次在 CNN 引入 ReLU 激活函數(shù)。 VGG-16:圖像分類網(wǎng)絡(luò),深度較大。
15. 特殊卷積神經(jīng)網(wǎng)絡(luò)

ResNet:引入殘差連接,緩解梯度消失和梯度爆炸問題,可以訓(xùn)練非常深的網(wǎng)絡(luò)。 Network in Network:使用 1x1 卷積核,可以將卷積運(yùn)算變成類似于全連接網(wǎng)絡(luò)的形式,還可以減少特征圖的通道數(shù),從而減少參數(shù)數(shù)量。 Inception Network:使用了多種尺寸卷積核的并行操作,再堆疊成多個(gè)通道,可以捕捉多種規(guī)模的特征,但缺點(diǎn)是計(jì)算量太大,可以通過(guò) 1x1 卷積減少通道數(shù)。
16. 實(shí)踐建議

使用開源實(shí)現(xiàn):從零開始實(shí)現(xiàn)時(shí)非常困難的,利用別人的實(shí)現(xiàn)可以快速探索更復(fù)雜有趣的任務(wù)。 數(shù)據(jù)增強(qiáng):通過(guò)對(duì)原圖像進(jìn)行鏡像、隨機(jī)裁剪、旋轉(zhuǎn)、顏色變化等操作,增加訓(xùn)練數(shù)據(jù)量和多樣性。 遷移學(xué)習(xí):針對(duì)當(dāng)前任務(wù)的訓(xùn)練數(shù)據(jù)太少時(shí),可以將充分訓(xùn)練過(guò)的模型用少量數(shù)據(jù)微調(diào)獲得足夠好的性能。 基準(zhǔn)測(cè)試和競(jìng)賽中表現(xiàn)良好的訣竅:使用模型集成,使用多模型輸出的平均結(jié)果;在測(cè)試階段,將圖像裁剪成多個(gè)副本分別測(cè)試,并將測(cè)試結(jié)果取平均。
17. 目標(biāo)檢測(cè)算法

18. 人臉識(shí)別

19. 風(fēng)格遷移

20. 循環(huán)神經(jīng)網(wǎng)絡(luò)基礎(chǔ)


21. NLP 中的詞表征


22. 序列到序列


評(píng)論
圖片
表情
