十大深度學(xué)習(xí)算法的原理解析
共 9558字,需瀏覽 20分鐘
·
2024-05-25 13:07
點(diǎn)擊上方“小白學(xué)視覺”,選擇加"星標(biāo)"或“置頂”
重磅干貨,第一時(shí)間送達(dá)
編者薦語
上周五陽了,停更了幾天,之后會(huì)恢復(fù)每日更新,感謝大家的支持!
編者薦語
上周五陽了,停更了幾天,之后會(huì)恢復(fù)每日更新,感謝大家的支持!
摘要
深度學(xué)習(xí)算法如何工作?
十大最受歡迎的深度學(xué)習(xí)的算法
一、卷積神經(jīng)網(wǎng)絡(luò)CNN
CNN 是如何工作的?
二、長短期存儲(chǔ)器網(wǎng)絡(luò)(LSTMs)
LSTM 是如何工作的?
-
首先,他們忘記了先前狀態(tài)中不相關(guān)的部分 -
接下來,它們有選擇地更新單元格狀態(tài)值 -
最后,輸出單元格狀態(tài)的某些部分
-
時(shí)間 t-1的輸出在時(shí)間 t 輸入。 -
類似地,時(shí)間 t 的輸出在時(shí)間 t + 1輸入。 -
RNN 可以處理任意長度的輸入。 -
計(jì)算考慮了歷史信息,模型大小不會(huì)隨著輸入大小的增加而增加。
GAN 是如何工作的?
-
鑒別器學(xué)習(xí)區(qū)分生成器的虛假數(shù)據(jù)和真實(shí)樣本數(shù)據(jù)。 -
在最初的訓(xùn)練過程中,生成器產(chǎn)生假數(shù)據(jù),鑒別器很快學(xué)會(huì)辨別這些假數(shù)據(jù)。 -
GAN 將結(jié)果發(fā)送給生成器和鑒別器以更新模型。
RBFN 是如何工作的?
-
RBFN 通過測量輸入與訓(xùn)練集中的例子的相似性來進(jìn)行分類。 -
RBF 神經(jīng)元有一個(gè)輸入向量供給輸入層,它們有一層 RBF 神經(jīng)元。 -
函數(shù)找到輸入的加權(quán)和,輸出層為每個(gè)類別或類別的數(shù)據(jù)有一個(gè)節(jié)點(diǎn)。 -
隱層中的神經(jīng)元包含高斯傳遞函數(shù),其輸出與到神經(jīng)元中心的距離成反比。 -
網(wǎng)絡(luò)的輸出是輸入的徑向基函數(shù)和神經(jīng)元參數(shù)的線性組合。
MLP 是如何工作的?
-
MLP 將數(shù)據(jù)提供給網(wǎng)絡(luò)的輸入層。神經(jīng)元層連接成一個(gè)圖形,以便信號(hào)沿一個(gè)方向傳遞。 -
MLP 使用存在于輸入層和隱藏層之間的權(quán)重來計(jì)算輸入。 -
MLP 使用激活函數(shù)來決定激活哪些節(jié)點(diǎn)。激活函數(shù)包括 ReLU、 sigmoid 函數(shù)和 tanh。 -
MLP 訓(xùn)練模型以理解相關(guān)性,并從訓(xùn)練數(shù)據(jù)集中學(xué)習(xí)獨(dú)立變量和目標(biāo)變量之間的依賴關(guān)系。
SOM 是如何工作的?
-
SOM 為每個(gè)節(jié)點(diǎn)初始化權(quán)值,并從訓(xùn)練數(shù)據(jù)中隨機(jī)選擇一個(gè)向量。 -
SOM 檢查每個(gè)節(jié)點(diǎn),以找出哪些權(quán)重是最可能的輸入向量。獲勝的節(jié)點(diǎn)稱為最佳匹配單元(BMU)。 -
SOM 發(fā)現(xiàn)了 BMU 的鄰居,隨著時(shí)間的推移,鄰居的數(shù)量減少了。 -
SOMs 為樣本向量授予一個(gè)獲勝的權(quán)重。節(jié)點(diǎn)越接近 BMU,其權(quán)重變化越大。. -
鄰居離 BMU 越遠(yuǎn),它學(xué)到的東西就越少。SOMs 在 N 次迭代中重復(fù)第二步。
DBN 是如何工作的?
-
貪婪學(xué)習(xí)算法訓(xùn)練 DBN。貪婪學(xué)習(xí)算法使用一層一層的方法來學(xué)習(xí)自頂向下的生成權(quán)重。 -
DBN 在最上面的兩個(gè)隱藏層上運(yùn)行 Gibbs 采樣的步驟。這個(gè)階段從頂部兩個(gè)隱藏層定義的 RBM 中提取一個(gè)樣本。 -
DBN 使用一次通過模型其余部分的祖先抽樣來從可見單元中抽取樣本。 -
DBN 每一層中潛變量的值都可以通過一次自底向上的傳遞來推斷。
RBM由兩層組成:
-
可見單位 -
隱藏單位
RBM 是如何工作的?
-
RBM接受輸入,并將其轉(zhuǎn)換成一組數(shù)字,在前向傳遞中對輸入進(jìn)行編碼。 -
RBM 算法將每個(gè)輸入與單個(gè)權(quán)值和一個(gè)總偏差相結(jié)合,將輸出傳遞給隱層。 -
在向后傳遞過程中,RBM 獲取這組數(shù)字并將它們轉(zhuǎn)換為重構(gòu)的輸入。 -
RBM 將每個(gè)激活與個(gè)體重量和整體偏差相結(jié)合,并將輸出傳遞到可見層進(jìn)行重建。 -
在可見層,RBM 將重建結(jié)果與原始輸入進(jìn)行比較,分析結(jié)果的質(zhì)量。
十、自動(dòng)編碼器
自動(dòng)編碼器是如何工作的?
-
自動(dòng)編碼器的結(jié)構(gòu)是接收輸入并將其轉(zhuǎn)換為不同的表示形式。然后,他們試圖盡可能準(zhǔn)確地重建原始輸入。 -
當(dāng)一個(gè)數(shù)字的圖像不清楚可見,它饋送到自動(dòng)編碼器神經(jīng)網(wǎng)絡(luò)。 -
自動(dòng)編碼器首先對圖像進(jìn)行編碼,然后將輸入的大小減小為較小的表示形式。 -
最后,自動(dòng)編碼器對圖像進(jìn)行解碼,生成重建圖像。
結(jié)論
Q1:深度學(xué)習(xí)中哪種算法最好?
Q2:哪一個(gè)是深度學(xué)習(xí)算法的例子?
Q3:CNN 是一種深度學(xué)習(xí)算法嗎?
Q4:深度學(xué)習(xí)的三個(gè)層次是什么?
Q5:深度學(xué)習(xí)模式是如何工作的?
Q6:深度學(xué)習(xí)算法從哪個(gè)入門?
本文僅做學(xué)術(shù)分享,如有侵權(quán),請聯(lián)系刪文。
下載1:OpenCV-Contrib擴(kuò)展模塊中文版教程
在「小白學(xué)視覺」公眾號(hào)后臺(tái)回復(fù):擴(kuò)展模塊中文教程,即可下載全網(wǎng)第一份OpenCV擴(kuò)展模塊教程中文版,涵蓋擴(kuò)展模塊安裝、SFM算法、立體視覺、目標(biāo)跟蹤、生物視覺、超分辨率處理等二十多章內(nèi)容。
下載2:Python視覺實(shí)戰(zhàn)項(xiàng)目52講
在「小白學(xué)視覺」公眾號(hào)后臺(tái)回復(fù):Python視覺實(shí)戰(zhàn)項(xiàng)目,即可下載包括圖像分割、口罩檢測、車道線檢測、車輛計(jì)數(shù)、添加眼線、車牌識(shí)別、字符識(shí)別、情緒檢測、文本內(nèi)容提取、面部識(shí)別等31個(gè)視覺實(shí)戰(zhàn)項(xiàng)目,助力快速學(xué)校計(jì)算機(jī)視覺。
下載3:OpenCV實(shí)戰(zhàn)項(xiàng)目20講
在「小白學(xué)視覺」公眾號(hào)后臺(tái)回復(fù):OpenCV實(shí)戰(zhàn)項(xiàng)目20講,即可下載含有20個(gè)基于OpenCV實(shí)現(xiàn)20個(gè)實(shí)戰(zhàn)項(xiàng)目,實(shí)現(xiàn)OpenCV學(xué)習(xí)進(jìn)階。
交流群
歡迎加入公眾號(hào)讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器、自動(dòng)駕駛、計(jì)算攝影、檢測、分割、識(shí)別、醫(yī)學(xué)影像、GAN、算法競賽等微信群(以后會(huì)逐漸細(xì)分),請掃描下面微信號(hào)加群,備注:”昵稱+學(xué)校/公司+研究方向“,例如:”張三 + 上海交大 + 視覺SLAM“。請按照格式備注,否則不予通過。添加成功后會(huì)根據(jù)研究方向邀請進(jìn)入相關(guān)微信群。請勿在群內(nèi)發(fā)送廣告,否則會(huì)請出群,謝謝理解~
評論
圖片
表情
視頻
全部評論
