知乎 | 有哪些當(dāng)時很有潛力但是最終沒有流行的深度學(xué)習(xí)算法?

來源:機(jī)器學(xué)習(xí)實驗室 本文約2500字,建議閱讀5分鐘
本文帶你了解有潛力但是沒流行的深度學(xué)習(xí)方法。
問題鏈接:
https://www.zhihu.com/question/490517834

SNN使用離散的脈沖序列(0和1)進(jìn)行消息傳遞,而ANN使用實值;因此ANN具有更高的運算效率。 SNN分為時間驅(qū)動和事件驅(qū)動兩種。前者利用時間步長仿真信號,后者根據(jù)只有在接收或發(fā)射脈沖信號時才處于活躍狀態(tài);而大部分的ANN架構(gòu)無法獲取時間維度信息(除了RNN類的模型),并且每個神經(jīng)元永遠(yuǎn)處于激活狀態(tài),因此SNN具有更少的能量消耗。 SNN使用脈沖序列進(jìn)行通訊,與人腦的消息傳播機(jī)制更像,因此SNN比ANN更像神經(jīng)網(wǎng)絡(luò)。 SNN可以運行在專用的神經(jīng)形態(tài)硬件上,例如Intel Loihi[2],Brainchip Akida[3]等;而ANN主要應(yīng)用在GPU上進(jìn)行加速。已有文獻(xiàn)證明,基于SNN 架構(gòu)的芯片能量效率比基于Field Programmable Gate Array(FPGA)實現(xiàn)的卷積神經(jīng)網(wǎng)絡(luò)的能量效率高出兩個數(shù)量級。


SNN使用離散脈沖序列,其中脈沖發(fā)射函數(shù)Heaviside step函數(shù)具有不可微的性質(zhì),因此難以像目前的ANN一樣使用梯度下降算法優(yōu)化。雖然目前有一些替代梯度的方法,但是在效果上還是和ANN有點差距。 目前的神經(jīng)形態(tài)硬件沒有流行。目前主流的計算硬件都是GPU,在GPU上,0-1的脈沖序列都被當(dāng)成實值進(jìn)行矩陣運算,無法看出SNN與ANN的差距。
參考文獻(xiàn):
[1] Maass W. Networks of spiking neurons: the third generation of neural network models[J]. Neural networks, 1997, 10(9):1659-1671.
[2] Mike Davies, Narayan Srinivasa, Tsung-Han Lin, Gautham Chinya, YongqiangCao, Sri Harsha Choday, Georgios Dimou, Prasad Joshi, Nabil Imam, Shweta Jain,et al. 2018. Loihi: A neuromorphic manycore processor with on-chip learning.Ieee Micro38, 1 (2018), 82–99.
[3] Anup Vanarse, Adam Osseiran, Alexander Rassau, and Peter van der Made. 2019.A hardware-deployable neuromorphic solution for encoding and classificationof electronic nose data.Sensors19, 22 (2019), 4831.
[4] Cao Y, Chen Y, Khosla D. Spiking deep convolutional neural networks for energy-efficient object recognition[J]. International Journal of Computer Vision, 2015, 113(1):54-66.




對平移和旋轉(zhuǎn)的 invariance(CNN的設(shè)計希望有invariance,雖然CNN不是完全的invariance),其實是丟棄了“坐標(biāo)框架”,Hinton認(rèn)為這是CNN不能反映“坐標(biāo)框架”的重要原因。CNN 前面非 Pooling 的部分是 equivariance 的。

理解capsule本身就有難度,而且使用了機(jī)器學(xué)習(xí)的一些算法,深度學(xué)習(xí)當(dāng)?shù)赖哪甏瑱C(jī)器學(xué)習(xí)算法就算是高門檻了。 capsule本身有很多細(xì)節(jié)沒想清楚,比如原始的capsule是引入聚類的思想來對特征進(jìn)行抽象,那有沒有其他更合適的方法呢,capsule還存在許多沒有解決的問題。 Transformer中的self-attention能夠建模pixel之間的相對關(guān)系,跟capsule的某些理念不謀而合,而且Transformer整體框架上要比capsule簡潔易懂。
