深度學(xué)習(xí)之后會是啥?
點擊上方“小白學(xué)視覺”,選擇加"星標(biāo)"或“置頂”
重磅干貨,第一時間送達



我們?yōu)槭裁春驮谀睦锵萑肜Ь常?/span>
需要太多標(biāo)簽化的訓(xùn)練數(shù)據(jù)。
模型的訓(xùn)練時間太長或者需要太多昂貴的資源,而且還可能根本無法訓(xùn)練。
超參數(shù),尤其是圍繞節(jié)點和層的超參數(shù),仍然是神秘的。自動化甚至是公認(rèn)的經(jīng)驗法則仍然遙不可及。
遷移學(xué)習(xí),意味著只能從復(fù)雜到簡單,而不是從一個邏輯系統(tǒng)到另一個邏輯系統(tǒng)。
是什么阻止了我們

看起來像DNN卻不是的東西
有一條研究路線與Hinton的反向傳播密切相關(guān),即認(rèn)為節(jié)點和層的基本結(jié)構(gòu)是有用的,但連接和計算方法需要大幅修改。

Capsule是一組嵌套的神經(jīng)層。在普通的神經(jīng)網(wǎng)絡(luò)中,你會不斷地添加更多的層。在CapsNet中,你會在一個單層內(nèi)增加更多的層?;蛘邠Q句話說,把一個神經(jīng)層嵌套在另一個神經(jīng)層里面。capsule里面的神經(jīng)元的狀態(tài)就能捕捉到圖像里面一個實體的上述屬性。一個膠囊輸出一個向量來代表實體的存在。向量的方向代表實體的屬性。該向量被發(fā)送到神經(jīng)網(wǎng)絡(luò)中所有可能的父代。預(yù)測向量是基于自身權(quán)重和權(quán)重矩陣相乘計算的。哪個父代的標(biāo)量預(yù)測向量乘積最大,哪個父代就會增加膠囊的結(jié)合度。其余的父代則降低其結(jié)合度。這種通過協(xié)議的路由方式優(yōu)于目前的max-pooling等機制。
多粒度級聯(lián)森林
只需要訓(xùn)練數(shù)據(jù)的一小部分。 在您的桌面CPU設(shè)備上運行,無需GPU。 訓(xùn)練速度一樣快,在許多情況下甚至更快,適合分布式處理。 超參數(shù)少得多,在默認(rèn)設(shè)置下表現(xiàn)良好。 依靠容易理解的隨機森林,而不是完全不透明的深度神經(jīng)網(wǎng)。
Pyro and Edward
不像深網(wǎng)的方法
層次時間記憶(HTM)

一些值得注意的漸進式改進

https://www.datasciencecentral.com/profiles/blogs/what-comes-after-deep-learning
交流群
歡迎加入公眾號讀者群一起和同行交流,目前有SLAM、三維視覺、傳感器、自動駕駛、計算攝影、檢測、分割、識別、醫(yī)學(xué)影像、GAN、算法競賽等微信群(以后會逐漸細(xì)分),請掃描下面微信號加群,備注:”昵稱+學(xué)校/公司+研究方向“,例如:”張三 + 上海交大 + 視覺SLAM“。請按照格式備注,否則不予通過。添加成功后會根據(jù)研究方向邀請進入相關(guān)微信群。請勿在群內(nèi)發(fā)送廣告,否則會請出群,謝謝理解~
