這就是深度學習如此強大的原因
點擊下方卡片,關(guān)注“新機器視覺”公眾號
重磅干貨,第一時間送達


深度學習:神經(jīng)網(wǎng)絡(luò)和函數(shù)
層的效果
深度學習作為插值

學習方面
確保模型學習通用函數(shù),而不僅僅適合訓練數(shù)據(jù);這是通過使用正則化處理的;
根據(jù)手頭的問題,選擇損失函數(shù);松散地說,損失函數(shù)是我們想要的(真實值)和我們當前擁有的(當前預測)之間的誤差函數(shù);
梯度下降是用于收斂到最優(yōu)函數(shù)的算法;決定學習率變得具有挑戰(zhàn)性,因為當我們遠離最優(yōu)時,我們想要更快地走向最優(yōu),而當我們接近最優(yōu)時,我們想要慢一些,以確保我們收斂到最優(yōu)和全局最小值;
大量隱藏層需要處理梯度消失問題;跳過連接和適當?shù)姆蔷€性激活函數(shù)等架構(gòu)變化,有助于解決這個問題。
計算挑戰(zhàn)
要學習一個復雜的函數(shù),我們需要大量的數(shù)據(jù); 為了處理大數(shù)據(jù),我們需要快速的計算環(huán)境; 我們需要一個支持這種環(huán)境的基礎(chǔ)設(shè)施。

本文僅做學術(shù)分享,如有侵權(quán),請聯(lián)系刪文。
評論
圖片
表情
