Triformer: Triangular, Variable-Specific Attentions for Long Sequence Multivariate Time Series Fo...

现实世界的各种应用都依赖于遥远未来的信息来进行决策,因此需要高效、准确的长序列多元时间序列预测。虽然最近的基于注意力的预测模型显示出在捕获长期相关性方面的强大能力,但它们仍然受到两个关键限制。首先,规范自我注意的复杂度为输入时间序列长度的二次多项式,效率不高;第二,不同变量的时间序列往往具有不同的时间动态,这是现有研究未能捕捉到的,因为他们使用相同的。

为了确保高效率和准确性,我们提出了Triformer,一个三角形的,可变的具体注意。(i)线性复杂度:我们引入了一种新的具有线性复杂度的patch attention。在将patch attention多层叠加时,提出了一种三角形结构,使层大小呈指数收缩,从而保持线性复杂度。(ii)特定于变量的参数:我们提出了一种轻量级方法,使不同变量时间序列的不同模型参数集能够提高准确性,而不影响效率和内存使用。来自多个领域的四个数据集的强有力的经验证据证明我们的设计选择是正确的,它表明,Triformer优于最先进的方法在准确性和效率。

背景:

1)High complexity  我们提出了线性复杂度为O(H)的Triformer


2)Variable-agnostic parameters 现有的预测模型通常使用不确定变量的参数,尽管不同的变量可能表现出不同的时间模式


问题定义:

时间序列预测学习一个函数F,它将作为历史H时间戳中的观测值,并预测未来F时间戳


Triformer

我们提出Triformer用于学习多元时间序列中的长期和多尺度依赖关系。Triformer的设计选择有三个方面。首先,我们提出了一种高效的Patch Attention,它具有线性复杂度。其次,我们提出了一个三角形结构,当叠加多层斑块注意时,使层大小以指数方式收缩。这保证了多层patch关注点的线性复杂性,也使提取多尺度特征成为可能。第三,我们提出了一种轻量级的方法来实现特定变量的建模,从而能够从不同的变量捕获不同的时间模式,而不影响效率

1)Linear Patch Attention

我们提出了一种线性复杂度的高效Patch Attention算法,以保证竞争的整体效率。我们将长度为H的输入时间序列在时间维度上分解为P = H/S的patch,其中S为patch的大小

将复杂性降低到线性,对于每个patch p,我们引入了一个可学习的伪时间戳. pseudo时间戳充当数据占位符,patch中的所有时间戳都可以写入有用的信息,然后将这些信息传递给下一层。在Triformer中,我们选择使用注意机制来更新伪时间戳,其中伪时间戳作为自我注意中的查询工作。伪时间戳查询补丁中所有的真实时间戳,因此对每个真实时间戳只计算一个关注分数,线性复杂度高



Triangular Stacking

在使用PAs时,我们只将patch中的伪时间戳提供给下一层,这将以指数方式缩小层大小。


我们将每一层的所有伪时间戳聚合成一个聚合的输出。


最后,所有层的聚合输出连接到预测器。这比仅仅使用最后一层的总输出有两个好处。首先,聚合的输出代表不同时间尺度的特征,形成不同的时间视图。其次,它提供了多个梯度反馈短路径,从而简化了学习过程。


Variable-Specific Modeling

针对变量的建模可以通过简单的方式,对每个变量引入不同的投影矩阵来实现,这导致参数空间非常大。这可能会导致过拟合,导致内存占用过高,并且不能很好地扩展变量的数量N。






Experiments

Baselines: We select six recent and strong baselines from different categories shown in Table 1, including StemGNN [Cao et al., 2020], AGCRN [Bai et al., 2020], Informer [Zhou et al., 2021], Reformer [Kitaev et al., 2020], LogTrans [Li et al., 2019], and Autoformer [Wu et al., 2021].


Experiments for Longer Sequences


Ablation Study

Hyper-Parameter-Sensitivity Analysis

1)效率:


Conclusion and Outlook

我们提出了Triformer,一种采用新颖的patch attention的三角形结构,确保了线性复杂性。此外,我们提出了一种轻量级的方法来生成特定于变量的投影矩阵,该投影矩阵是量身定制的,以捕捉每个变量的时间序列的不同时间模式。在四个数据集上的大量实验表明,我们的建议优于其他先进的长序列多元时间序列预测方法。在未来的工作中,我们有兴趣探索支持动态输入长度的不同方式,并利用课程学习加强模型培训[Yang等人,2021;Yang等,2022]。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,084评论 6 503
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,623评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 163,450评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,322评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,370评论 6 390
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,274评论 1 300
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,126评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,980评论 0 275
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,414评论 1 313
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,599评论 3 334
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,773评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,470评论 5 344
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,080评论 3 327
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,713评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,852评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,865评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,689评论 2 354

推荐阅读更多精彩内容