革新Transformer!清華大學提出全新Autoformer骨干網(wǎng)絡
來源:深度學習技術(shù)前沿 本文約2500字,建議閱讀9分鐘 全新Autoformer骨干網(wǎng)絡,長時序預測達到SOTA!
[ 導讀 ]近日,清華大學軟件學院機器學習實驗室另辟蹊徑,基于隨機過程經(jīng)典理論,提出全新Autoformer架構(gòu),包括深度分解架構(gòu)及全新自相關(guān)機制,長序預測性能平均提升38%。
論文鏈接:https://arxiv.org/abs/2106.13008
研究背景
隨著預測時效的延長,直接使用自注意力(self-attention)機制難以從復雜時間模式中找到可靠的時序依賴。
由于自注意力的二次復雜度問題,模型不得不使用其稀疏版本,但會限制信息利用效率,影響預測效果。
深度分解架構(gòu):突破將時序分解作為預處理的傳統(tǒng)方法,設計序列分解單元以嵌入深度模型,實現(xiàn)漸進式地(progressively)預測,逐步得到可預測性更強的組分。 自相關(guān)(Auto-Correlation)機制:基于隨機過程理論,丟棄點向(point-wise)連接的自注意力機制,實現(xiàn)序列級(series-wise)連接的自相關(guān)機制,且具有的復雜度,打破信息利用瓶頸。 應對長期預測問題,Autoformer在能源、交通、經(jīng)濟、氣象、疾病五大領域取得了38%的大幅效果提升。
方法介紹
(1)深度分解架構(gòu)

A. 序列分解單元

。
B. 編解碼器

對于周期項,使用自相關(guān)機制,基于序列的周期性質(zhì)來進行依賴挖掘,并聚合具有相似過程的子序列; 對于趨勢項,使用累積的方式,逐步從預測的隱變量中提取出趨勢信息。


A. 基于周期的依賴發(fā)現(xiàn)


B. 時延信息聚合

C. 對比分析

相比于之前的點向連接的注意力機制或者其稀疏變體,自注意力(Auto-Correlation)機制實現(xiàn)了序列級的高效連接,從而可以更好的進行信息聚合,打破了信息利用瓶頸。
實驗
(1) 主要結(jié)果
整體實驗結(jié)果(2) 對比實驗


(3) 模型分析


總結(jié)
編輯:黃繼彥
讀者,你好!我們建立了微信交流群,歡迎大家掃碼進群學習討論!
微商和廣告無關(guān)人員請繞道,謝謝合作!
推薦閱讀
2022秋招大戰(zhàn):算法崗擠破頭,JAVA開發(fā)也被迫內(nèi)卷

暑不盡的盛夏

評論
圖片
表情

