通用卷積神經(jīng)網(wǎng)絡CCNN
前言 在本文中,來自阿姆斯特丹自由大學、阿姆斯特丹大學、斯坦福大學的研究者提出了 CCNN,單個 CNN 就能夠在多個數(shù)據(jù)集(例如 LRA)上實現(xiàn) SOTA 。


該研究提出 Continuous CNN(CCNN):一個簡單、通用的 CNN,可以跨數(shù)據(jù)分辨率和維度使用,而不需要結構修改。CCNN 在序列 (1D)、視覺 (2D) 任務、以及不規(guī)則采樣數(shù)據(jù)和測試時間分辨率變化的任務上超過 SOTA。 該研究對現(xiàn)有的 CCNN 方法提供了幾種改進,使它們能夠匹配當前 SOTA 方法,例如 S4。主要改進包括核生成器網(wǎng)絡的初始化、卷積層修改以及 CNN 的整體結構。
作為核生成器網(wǎng)絡,同時將卷積核參數(shù)化為連續(xù)函數(shù)。該網(wǎng)絡將坐標
映射到該位置的卷積核值:
(圖 1a)。通過將 K 個坐標
的向量通過 G_Kernel,可以構造一個大小相等的卷積核 K,即
。隨后,在輸入信號
和生成的卷積核
之間進行卷積運算,以構造輸出特征表示
,即
。


生成的核計算的,之后是從 N_in 到 N_out 進行逐點卷積。這種變化允許構建更廣泛的 CCNN—— 從 30 到 110 個隱藏通道,而不會增加網(wǎng)絡參數(shù)或計算復雜度。
重新加權核生成器網(wǎng)絡的最后一層。因此,核生成器網(wǎng)絡輸出的方差遵循傳統(tǒng)卷積核的初始化,而 CCNN 的 logits 在初始化時呈現(xiàn)單一方差。

若覺得還不錯的話,請點個 “贊” 或 “在看” 吧
評論
圖片
表情
