0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

重新审视Transformer:倒置更有效,真实世界预测的新SOTA出现了

智能感知与物联网技术研究所 来源:未知 2023-11-05 20:15 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

Transformer 在时间序列预测中出现了强大能力,可以描述成对依赖关系和提取序列中的多层次表示。然而,研究人员也质疑过基于 Transformer 的预测器的有效性。这种预测器通常将相同时间戳的多个变量嵌入到不可区分的通道中,并对这些时间 token 进行关注,以捕捉时间依赖性。考虑到时间点之间的数字关系而非语义关系,研究人员发现,可追溯到统计预测器的简单线性层在性能和效率上都超过了复杂的 Transformer。同时,确保变量的独立性和利用互信息越来越受到最新研究的重视,这些研究明确地建立了多变量相关性模型,以实现精确预测,但这一目标在不颠覆常见 Transformer 架构的情况下是难以实现的。

考虑到基于 Transformer 的预测器的争议,研究者们正在思考为什么 Transformer 在时间序列预测中的表现甚至不如线性模型,而在许多其他领域却发挥着主导作用。

近日,来自清华大学的一篇新论文提出了一个不同的视角 ——Transformer 的性能不是固有的,而是由于将架构不当地应用于时间序列数据造成的。

wKgaomVHiHKAXhhfAAI5XInR6Xc692.png

论文地址:https://arxiv.org/pdf/2310.06625.pdf

基于 Transformer 的预测器的现有结构可能并不适合多变量时间序列预测。如图 2 左侧所示,同一时间步长的点基本上代表了完全不同的物理意义,但测量结果却不一致,这些点被嵌入到一个 token 中,多变量相关性被抹去。而且,在现实世界中,由于多变量时间点的局部感受野和时间戳不对齐,单个时间步形成的标记很难揭示有益信息。此外,虽然序列变化会受到序列顺序的极大影响,但在时间维度上却没有适当地采用变体注意力机制。因此,Transformer 在捕捉基本序列表征和描绘多元相关性方面的能力被削弱,限制了其在不同时间序列数据上的能力和泛化能力。

wKgaomVHiHKAB15uAAH88_ygQtg375.png

关于将每个时间步的多变量点嵌入一个(时间)token 的不合理性,研究者从时间序列的反向视角出发,将每个变量的整个时间序列独立嵌入一个(变量)token,这是扩大局部感受野的 patching 的极端情况。通过倒置,嵌入的 token 聚集了序列的全局表征,可以更加以变量为中心,更好地利用注意力机制进行多变量关联。同时,前馈网络可以熟练地学习任意回溯序列编码的不同变量的泛化表征,并解码以预测未来序列。

研究者认为 Transformer 对时间序列预测并非无效,而是使用不当。在文中,研究者重新审视了 Transformer 的结构,并提倡将 iTransformer 作为时间序列预测的基本支柱。他们将每个时间序列嵌入为变量 token,采用多变量相关性关注,并使用前馈网络进行序列编码。实验结果表明,本文所提出的 iTransformer 在图 1 所示的实际预测基准上达到了 SOTA 水准,并出人意料地解决了基于 Transformer 的预测器的痛点。

wKgaomVHiHKAWxwpAArxWFZkvCo108.png

总结来说,本文的贡献有以下三点:

  • 研究者对 Transformer 的架构进行了反思,发现原生 Transformer 组件在时间序列上的能力尚未得到充分开发。

  • 本文提出的 iTransformer 将独立时间序列视为 token,通过自注意力捕捉多变量相关性,并利用层归一化和前馈网络模块学习更好的序列全局表示法,用于时间序列预测。

  • 通过实验,iTransformer 在真实世界的预测基准上达到了 SOTA。研究者分析了反转模块和架构选择,为未来改进基于 Transformer 的预测器指明了方向。

iTransformer

在多变量时间序列预测中,给定历史观测:

wKgaomVHiHKAP0uKAAB81pqY4KQ190.png

用 T 个时间步长和 N 个变量,研究者预测未来的 S 个时间步长:wKgaomVHiHKAMQGOAACEZ6ViK7w788.png为方便起见,表示为wKgaomVHiHOALEH_AAAQsWuNyEA373.png为时间步 t 同时记录的多元变量,wKgaomVHiHOAciTVAAARFyIDK-A548.png为每个变量由 n 索引的整个时间序列。值得注意的是,在现实世界中,由于监视器的系统延迟和松散组织的数据集,wKgaomVHiHOAOijYAAATQOvpcas994.png可能不包含本质上相同时间戳的时间点。

wKgaomVHiHOAOijYAAATQOvpcas994.png的元素可以在物理测量和统计分布中彼此不同,变量wKgaomVHiHOAciTVAAARFyIDK-A548.png通常共享这些数据。

本文所提出架构配备的 Transformer 变体,称为 iTransformer,基本上没有对 Transformer 变体提出更具体的要求,只是注意力机制应适用于多元相关性建模。因此,一组有效的注意力机制可以作为插件,降低变量数量增加时关联的复杂性。

图 4 中所示的 iTransformer 利用了更简单的 Transformer 纯编码器架构,包括嵌入、投影和 Transformer 块。

wKgaomVHiHOAQJssAAKYcX1-p48911.png

实验及结果

研究者在各种时间序列预测应用中对所提出的 iTransformer 进行了全面评估,验证了所提出框架的通用性,并进一步深入研究了针对特定时间序列维度反转 Transformer 组件职责的效果。

研究者在实验中广泛纳入了 6 个真实世界数据集,包括 Autoformer 使用的 ETT、天气、电力、交通数据集、LST5 Net 提出的太阳能数据集以及 SCINet 评估的 PEMS 数据集。更多关于数据集的信息,请阅读原文。

预测结果

如表 1 所示,用红色表示最优,下划线表示最优。MSE/MAE 越低,预测结果越准确。本文所提出的 iTransformer 实现了 SOTA 性能。原生 Transformer 组件可以胜任时间建模和多元关联,所提出的倒排架构可以有效解决现实世界的时间序列预测场景。

wKgaomVHiHOAEEF7AAJOzgAHKgk654.png

iTransformer 通用性

研究者将该框架应用于 Transformer 及其变体来评估 iTransformers,这些变体通常解决了 self-attention 机制的二次复杂性问题,包括 Reformer、Informer、Flowformer 和 FlashAttention。研究者发现了简单的倒置视角可以提高基于 Transformer 的预测器的性能,从而提高效率、泛化未见变量并更好地利用历史观测数据。

表 2 对 Transformers 和相应的 iTransformers 进行了评估。值得注意的是,该框架持续改进了各种 Transformer。总体而言,Transformer 平均提升了 38.9%,Reformer 平均提升了 36.1%,Informer 平均提升了 28.5%,Flowformer 平均提升了 16.8%,Flashformer 平均提升了 32.2%。

此外,由于倒置结构在变量维度上采用了注意力机制,因此引入具有线性复杂性的高效注意力从根本上解决了因 6 个变量而产生的效率问题,这一问题在现实世界的应用中十分普遍,但对于 Channel Independent 来说可能会消耗资源。因此,iTransformer 可广泛应用于基于 Transformer 的预测器。

wKgaomVHiHOAFbC5AAHAqncruNE962.png

为了验证假设,研究者将 iTransformer 与另一种泛化策略进行了比较:Channel Independent 强制采用一个共享 Transformer 来学习所有变体的模式。如图 5 所示, Channel Independent(CI-Transformers)的泛化误差可能会大幅增加,而 iTransformer 预测误差的增幅要小得多。

wKgaomVHiHOAJY14AAE5_dwrv4Y389.png

由于注意力和前馈网络的职责是倒置的,图 6 中评估了随着回视长度的增加,Transformers 和 iTransformer 的性能。它验证了在时间维度上利用 MLP 的合理性,即 Transformers 可以从延长的回视窗口中获益,从而获得更精确的预测。

wKgaomVHiHSAWJ15AAGH_S98ZO4587.png

模型分析

为了验证 Transformer 组件的合理性,研究者进行了详细的消融实验,包括替换组件(Replace)和移除组件(w/o)实验。表 3 列出了实验结果。

wKgaomVHiHSAYdPOAAFPpEZatPA169.png

更多详细内容,请参考原文。


原文标题:重新审视Transformer:倒置更有效,真实世界预测的新SOTA出现了

文章出处:【微信公众号:智能感知与物联网技术研究所】欢迎添加关注!文章转载请注明出处。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 物联网
    +关注

    关注

    2950

    文章

    48110

    浏览量

    418166

原文标题:重新审视Transformer:倒置更有效,真实世界预测的新SOTA出现了

文章出处:【微信号:tyutcsplab,微信公众号:智能感知与物联网技术研究所】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    Transformer 入门:从零理解 AI 大模型的核心原理

    分:Transformer 架构详解 现在你已经了解了数学基础和语言模型概念,让我们来看 Transformer 是如何工作的! Transformer 的目标 Transformer
    发表于 02-10 16:33

    Transformer如何让自动驾驶大模型获得思考能力?

    在谈及自动驾驶时,Transformer一直是非常关键的技术,为何Transformer在自动驾驶行业一直被提及?
    的头像 发表于 02-01 09:15 4375次阅读

    更有效?解码焊球剪切与键合点拉力测试的真实对比

    在微电子封装可靠性评估中,焊球-剪切测试和键合点-拉力测试是两种最常用的机械性能检测方法。长期以来,工程界对这两种测试手段的有效性和适用场景存在诸多讨论。究竟哪一种测试更能真实反映键合界面的长期
    发表于 01-08 09:46

    从数据到模型:如何预测细节距键合的剪切力?

    预估其剪切力?行业内的研究数据为我们揭示可能性。今天,科准测控小编将带您了解如何基于实验数据建立并应用预测模型,实现从“测量”到“预估”的关键跨越。 一、从平方定律到经验公式 直观上,我们可能会假设
    发表于 01-08 09:45

    世界模型是让自动驾驶汽车理解世界还是预测未来?

      [首发于智驾最前沿微信公众号]世界模型在自动驾驶技术中已有广泛应用。但当谈及它对自动驾驶的作用时,难免会出现分歧。它到底是让自动驾驶汽车得以理解世界,还是为其提供
    的头像 发表于 12-16 09:27 1012次阅读
    <b class='flag-5'>世界</b>模型是让自动驾驶汽车理解<b class='flag-5'>世界</b>还是<b class='flag-5'>预测</b>未来?

    Transformer如何让自动驾驶变得更聪明?

    ]自动驾驶中常提的Transformer本质上是一种神经网络结构,最早在自然语言处理里火起来。与卷积神经网络(CNN)或循环神经网络(RNN)不同,Transformer能够自动审视所有输入信息,并动态判断哪些部分更为关键,同时
    的头像 发表于 11-19 18:17 2444次阅读

    【书籍评测活动NO.66】玩转高速电路:基于ANSYS HFSS的无源仿真实

    HFSS的无源仿真实例》:涵盖 单端/差分信号传输线、信号过孔,典型走线过孔仿真实例;贯彻“先预测—再仿真”方法论,由简入繁,学以致用;一步一图+工程文件下载,决胜信号完整性! 书籍介绍 《玩转
    发表于 11-06 14:19

    基于全局预测历史的gshare分支预测器的实现细节

    的优点是假如出现连续遇到两条分支指令的情况,后一条分支指令可以享受到前一条指令的分支历史结果。但缺点就是会存在预测失败导致BHR中更新的内容不正确,这时必须要先对BHR进行回滚操作,恢复到错误前的状态
    发表于 10-22 06:50

    安防该卷一卷“安全感”

    安防行业在技术与市场中面临挑战,企业业绩分化明显,需重新审视发展现状。
    的头像 发表于 09-03 09:49 492次阅读
    安防该卷一卷“安全感”<b class='flag-5'>了</b>

    AURIX tc367通过 MCU SOTA 更新逻辑 IC 闪存是否可行?

    你好专家:我的用例是 MCU 通过 SPI 连接到逻辑 IC,逻辑 IC 连接到 8MB 闪存,但 MCU PFLASH 大小为 2MB,通过 MCU SOTA 更新逻辑 IC 闪存是否可行?
    发表于 08-11 06:36

    求助,关于TC387使能以及配置SOTA 中一些问题求解

    设置写保护密码, 而设置为CONFIRMED则必须有密码,设置密码后,后续对UCB的操作是否每次都要有解锁操作 , 问题3: 在调试UCB去使能SOTA的过程中,出现debug口无法调试刷写
    发表于 08-08 07:31

    Transformer架构中编码器的工作流程

    编码器是Transformer体系结构的基本组件。编码器的主要功能是将输入标记转换为上下文表示。与早期独立处理token的模型不同,Transformer编码器根据整个序列捕获每个token的上下文。
    的头像 发表于 06-10 14:27 1200次阅读
    <b class='flag-5'>Transformer</b>架构中编码器的工作流程

    Transformer架构概述

    由于Transformer模型的出现和快速发展,深度学习领域正在经历一场翻天覆地的变化。这些突破性的架构不仅重新定义自然语言处理(NLP)的标准,而且拓宽了视野,彻底改变了AI的许多
    的头像 发表于 06-10 14:24 1440次阅读
    <b class='flag-5'>Transformer</b>架构概述

    CYPD3177 PD在正常运行期间重新初始化怎么解决?

    大家好 我们在应用程序中使用 CYPD3177 作为汇接器,它似乎工作正常,但我们注意到一些奇怪的行为--将它连接到 PD 源后,它成功请求 PD 配置文件,我们的设备工作正常,但在一些不可预测
    发表于 05-22 07:41

    提早预见问题:预测性维护有效降低企业停机风险

    在智能制造快速发展的时代,设备维护方式正从传统的事后维护(Reactive Maintenance)和预防性维护(Preventive Maintenance),逐步转向更高效的预测性维护
    的头像 发表于 05-06 16:32 1121次阅读
    提早预见问题:<b class='flag-5'>预测</b>性维护<b class='flag-5'>有效</b>降低企业停机风险