吳恩達:22張圖全解深度學習知識
↑↑↑點擊上方藍字,回復資料,10個G的驚喜
來源:知乎、智能計算芯世界 作者:Sophia
深度學習基礎(chǔ)



sigmoid:sigmoid 函數(shù)常用于二分分類問題,或者多分類問題的最后一層,主要是由于其歸一化特性。sigmoid 函數(shù)在兩側(cè)會出現(xiàn)梯度趨于零的情況,會導致訓練緩慢。 tanh:相對于 sigmoid,tanh 函數(shù)的優(yōu)點是梯度值更大,可以使訓練速度變快。 ReLU:可以理解為閾值激活(spiking model 的特例,類似生物神經(jīng)的工作方式),該函數(shù)很常用,基本是默認選擇的激活函數(shù),優(yōu)點是不會導致訓練緩慢的問題,并且由于激活值為零的節(jié)點不會參與反向傳播,該函數(shù)還有稀疏化網(wǎng)絡(luò)的效果。 Leaky ReLU:避免了零激活值的結(jié)果,使得反向傳播過程始終執(zhí)行,但在實踐中很少用。






依靠經(jīng)驗:聆聽自己的直覺,設(shè)置感覺上應(yīng)該對的參數(shù)然后看看它是否工作,不斷嘗試直到累趴。 網(wǎng)格搜索:讓計算機嘗試一些在一定范圍內(nèi)均勻分布的數(shù)值。 隨機搜索:讓計算機嘗試一些隨機值,看看它們是否好用。 貝葉斯優(yōu)化:使用類似 MATLAB bayesopt 的工具自動選取最佳參數(shù)——結(jié)果發(fā)現(xiàn)貝葉斯優(yōu)化的超參數(shù)比你自己的機器學習算法還要多,累覺不愛,回到依靠經(jīng)驗和網(wǎng)格搜索方法上去。




卷積網(wǎng)絡(luò)




LeNet·5:手寫識別分類網(wǎng)絡(luò),這是第一個卷積神經(jīng)網(wǎng)絡(luò),由 Yann LeCun 提出。 AlexNet:圖像分類網(wǎng)絡(luò),首次在 CNN 引入 ReLU 激活函數(shù)。 VGG-16:圖像分類網(wǎng)絡(luò),深度較大。

ResNet: 引入殘差連接,緩解梯度消失和梯度爆炸問題,可以訓練非常深的網(wǎng)絡(luò)。 Network in Network: 使用 1x1 卷積核,可以將卷積運算變成類似于全連接網(wǎng)絡(luò)的形式,還可以減少特征圖的通道數(shù),從而減少參數(shù)數(shù)量。 Inception Network: 使用了多種尺寸卷積核的并行操作,再堆疊成多個通道,可以捕捉多種規(guī)模的特征,但缺點是計算量太大,可以通過 1x1 卷積減少通道數(shù)。

使用開源實現(xiàn): 從零開始實現(xiàn)時非常困難的,利用別人的實現(xiàn)可以快速探索更復雜有趣的任務(wù)。 數(shù)據(jù)增強: 通過對原圖像進行鏡像、隨機裁剪、旋轉(zhuǎn)、顏色變化等操作,增加訓練數(shù)據(jù)量和多樣性。 遷移學習: 針對當前任務(wù)的訓練數(shù)據(jù)太少時,可以將充分訓練過的模型用少量數(shù)據(jù)微調(diào)獲得足夠好的性能。 基準測試和競賽中表現(xiàn)良好的訣竅: 使用模型集成,使用多模型輸出的平均結(jié)果;在測試階段,將圖像裁剪成多個副本分別測試,并將測試結(jié)果取平均。



循環(huán)網(wǎng)絡(luò)






推薦閱讀
(點擊標題可跳轉(zhuǎn)閱讀)
評論
圖片
表情

