时间序列预测模型——索引篇

news2024/12/27 5:32:12

1. 模型索引及其关键点

  • Autoformer - NeurIPS 2021:
      周期项和趋势项分解——解耦不同时间模式,提高对时域依赖关系的提取能力
      自相关机制——降低计算复杂度,实现子序列级的连接
  • FEDformer - ICML 2022:
      频域关系的提取——频域信息的稀疏性和紧凑性,便于建模,并降低计算复杂度
  • DLinear - 2022:
      质疑Transformers的有效性
  • PatchTST - ICLR 2023:
      Patch——计算逐片段的嵌入和注意力
      通道独立策略——单通道预测单通道的数据,不同通道共享相同参数。
  • iTransformer - ICLR 2024:
      显示建模跨变量依赖关系——计算不同变量之间的注意力
      series-wise 表示——对输入每个变量的整段序列进行嵌入
  • TimesNet - ICLR 2023:
      使用二维卷积对同一周期内与相同周期间依赖关系提取
  • TSMixer - KDD 23:
      时间混合和变量混合交替的范式
      纯MLP的特征提取
  • TimeMixer - ICLR 2024 :
      多尺度分解——将输入序列通过下采样得到不同时间细粒度的子序列
      多尺度混合——分别采用自上而下和自下而上的混合方式对不同尺度的趋势项和季节项进行混合
  • TimeXer - 2024:
      内生变量的相关机制和外生变量的交叉注意力机制
      全局Token的使用——内生变量全局Token与内生变量的局部信息交互和与外生变量全局  Token(全局信息)的交互
  • xLstm:
      新的骨干模型包含sLSTM、mLSTM两个变体
  • MICN - ICLR 2023 notable top 5%:
      基于等距卷积的全局信息建模——通过普通卷积提取局部信息,得到的下采样序列,接着使用等距卷积提取全局信息
      多尺度分支混合预测
  • SCINet - NeurIPS 2022:
      递归式的下采样-卷积-交互结构——保证分解的每一个子序列都具有全局信息
  • ModernTCN - ICLR 2024:
      跨时间、跨变量、跨变量维度的全CNN建模
      使用大卷积核,提高有效感受野
  • CARD - ICLR 2024
      跨时间、跨变量、跨变量维度的Attention——相同时间(patch-token)不同变量之间和不同隐藏维度之间的注意力 + 相同变量不同token之间和不同隐藏维度之间的注意力
      平滑化的注意力
      使用动态投影的降维
      信号衰减的鲁棒损失函数
      融合多尺度混合的多头合并方法
  • PRformer 2024-08
      金字塔RNN嵌入——使用卷积的自下而上的尺度提取,使用上采样的自上而下的尺度信息转移,两个过程相同尺度合并,用RNN提取混合后不同尺度的信息,获得模型的嵌入(transformer输入)
  • Crossformer - ICLR 2023 notable top 5%:
      数据分段——和PatchTST不同角度
      两阶段注意力层——捕获跨变量和跨时间的依赖关系
      采用分层编码器-解码器结构——在不同层次(尺度)上利用信息进行预测
      “路由器”结构的Attention,降低计算参数
  • FiLM - NeurIPS 2022:
      时间序列历史信息的紧凑表示
      降低原始输入序列的噪声

2. 发展趋势

依赖关系的提取

  Dlinear之前,模型主要探讨在时域频域依赖关系的提取,计算输入嵌入不同时间步之间的相关性,或者在频域提取周期性依赖关系,利用频域信息的紧凑性降低计算复杂度。
  这一时期的挑战是:时域复杂时间模式的提取困难;原始Transformer自回归式的逐点预测的局限性以及注意力机制带来的计算复杂度问题。
  Dlinear之后,面对对Transformers有限性的质疑,不同模型从不同角度做出了改进总的来说有以下几个点:

  1. Transformer对时间序列顺序性提取的不足
      PRformer认为其过分依赖位置嵌入,于是引入PRE,利用RNN对顺序性的捕获能力来弥补不足
  2. 外生变量内生变量预测的作用被夸大,产生过拟合等问题
      PatchTST直接引入了通道独立的策略,忽视外生变量的作用;同时不同通道的预测使用共享权重来提高泛化能力;使用patch降低计算复杂度,避免过拟合。
      TimeXer使用Cross-attention与外生变量建立series级的交互,适度引入外生变量。
  3. 使用Transformer存在过度建模的问题
      MLP,RNN等其他网络被关注起来,用于特征提取;并使用了大量的残差进行建模(如TiDE,过于保守)

  但随之而来的是分Patch会出现信息不对齐的问题,iTransformer 将输入改为serie级的表示;Sageformer提出Series-aware,为每个序列添加Global token,以此来增强模型对序列的感知能力,而后的TimeXer、CARD等模型也用到类似了Global token的设计来实现历史信息与子序列间的交互。信息不对齐也可以是不同隐藏维度之间,后续CARD同时也计算了不同隐藏维度之间的注意力。
  而时间序列的多尺度特性也被关注起来,即:时间序列在不同的采样尺度上呈现出不同的时间变化,而在时间细粒度上,细尺度和粗尺度往往反映不同维度的变化趋势(如宏观和微观)。因此呈现了多尺度分解多尺度混合的建模策略,既可以先通过下采样分解序列,然后将不同尺度的数据送入相似的多尺度分支,将不同分支的结果混合,如TimeMixer、MICN;也可以在时间嵌入阶段提取多尺度信息,如PRformer;此外也有像CARD模型在多头拼接时融合相邻位置的信息,来混合多尺度信息。
  此外,iTransformer证明了跨变量建模的有效性,随后越来越的模型使用PatchTST+iTransformer模式,计算不同patch_embedding(时间上) 的注意力和不同变量间的注意力,最有名的是Crossformer(出现时间较早),它还是用到分层的encoder-decoder模式,不同层级代表不同的时间尺度。


12.5 更新分界线,持续更新优化中…


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2254255.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

WEB开发: Node.js路由之由浅入深(一) - 全栈工程师入门

作为一个使用Node.js多年的开发者,我已经习惯于用Node.js写一些web应用来为工作服务,因为实现快速、部署简单、自定义强。今天我们一起来学习一个全栈工程师必备技能:web路由。(观看此文的前提是默认你已经装好nonde.js了&#xf…

大模型分类3—按功能特性

版权声明 本文原创作者:谷哥的小弟作者博客地址:http://blog.csdn.net/lfdfhl根据功能特性,大模型可分为生成式、分析式和交互式大模型。 1. 大模型分类概述 1.1 生成式大模型 生成式大模型的核心能力在于其创造性,能够独立生成新的数据样本,如文本、图像和音频等。这类…

VUE拖拽对象到另一个区域

最近有个需求是需要在web端定制手机的界面UI(具体实现比较复杂,此处不做阐述,此文章只说明拖拽效果实现),为了方便用户操作,就想实现这种效果:从右侧的图标列表中拖拽图标到左侧模拟的手机界面上…

iOS平台接入Facebook登录

1、FB开发者后台注册账户 2、完善App信息 3、git clone库文件代码接入 4、印尼手机卡开热点调试 备注: 可能遇到的问题: 1、Cocos2dx新建的项目要更改xcode的git设置,不然卡在clone,无法在线获取FBSDK 2、动态库链接 需要在…

传输层TCP_三次握手四次挥手的过程

三次握手四次挥手 三次握手 三次握手

小迪笔记 第四十五天 sql 注入进阶 :二次注入,堆叠注入,数据读取(load_file)加外带

二次注入 概念:就是我们注入的语句(刚注入时 不会产生影响)但是我们的恶意代码会进入数据库 他在被二次利用的时候就会进行执行 这个就是二次注入 这个的典型案例就是账号密码的修改 : 大家应该也知道 账号注册一般是禁止你使…

【SNIP】《An Analysis of Scale Invariance in Object Detection – SNIP》

CVPR-2018 Singh B, Davis L S. An analysis of scale invariance in object detection snip[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2018: 3578-3587. https://github.com/bharatsingh430/snip?tabreadme-ov-file 文章目录 …

【C++|Linux|计网】构建Boost站内搜索引擎的技术实践与探索

目录 1、项目的相关背景 2.搜索引擎的相关宏观原理 3.搜索引擎技术栈和项目环境 4.正排索引vs倒排索引-搜索引擎具体原理 5.编写数据去标签与数据清洗的模块 Parser 5.1.去标签 目标: 5.2.代码的整体框架: EnumFile函数的实现: Enu…

ComfyUI绘画|提示词反推工作流,实现自动化书写提示词

今天先分享到这里~ ComfyUI绘画|关于 ComfyUI 的学习建议

高频面试题(含笔试高频算法整理)基本总结回顾20

干货分享,感谢您的阅读! (暂存篇---后续会删除,完整版和持续更新见高频面试题基本总结回顾(含笔试高频算法整理)) 备注:引用请标注出处,同时存在的问题请在相关博客留言…

【AI模型对比】AI新宠Kimi与ChatGPT的全面对比:技术、性能、应用全揭秘

文章目录 Moss前沿AI技术背景Kimi人工智能的技术积淀ChatGPT的技术优势 详细对比列表模型研发Kimi大模型的研发历程ChatGPT的发展演进 参数规模与架构Kimi大模型的参数规模解析ChatGPT的参数体系 模型表现与局限性Kimi大模型的表现ChatGPT的表现 结论:如何选择适合自…

性能测试基础知识jmeter使用

博客主页:花果山~程序猿-CSDN博客 文章分栏:测试_花果山~程序猿的博客-CSDN博客 关注我一起学习,一起进步,一起探索编程的无限可能吧!让我们一起努力,一起成长! 目录 性能指标 1. 并发数 (Con…

如何通过 Windows 自带的启动管理功能优化电脑启动程序

在日常使用电脑的过程中,您可能注意到开机后某些程序会自动运行。这些程序被称为“自启动”或“启动项”,它们可以在系统启动时自动加载并开始运行,有时甚至在后台默默工作。虽然一些启动项可能是必要的(如杀毒软件)&a…

基于PSO粒子群优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真

目录 1.算法运行效果图预览 2.算法运行软件版本 3.部分核心程序 4.算法理论概述 5.算法完整程序工程 1.算法运行效果图预览 (完整程序运行后无水印) 2.算法运行软件版本 matlab2022a 3.部分核心程序 (完整版代码包含详细中文注释和操作步骤视频&#xff09…

STM32 Jlink Flash读写固件数据

目录 一、从单片机读数据 1.创建工程XX.jflash,已经有的工程不需要创建直接打开 2.创建完成,连接jlink 3.读取整个芯片的数据 4.读取完成后保存数据 5.选择保存的数据格式,以及位置,读数据完成 二、写固件数据到单片机 1.创建工程XX.j…

Scrapy解析JSON响应v

在 Scrapy 中解析 JSON 响应非常常见,特别是当目标网站的 API 返回 JSON 数据时。Scrapy 提供了一些工具和方法来轻松处理 JSON 响应。 1、问题背景 Scrapy中如何解析JSON响应? 有一只爬虫(点击查看源代码),它可以完美地完成常规的HTML页面…

波动理论、传输线和S参数网络

波动理论、传输线和S参数网络 传输线 求解传输线方程 对于传输线模型,我们通常用 R L G C RLGC RLGC 来表示: 其中 R R R 可以表示导体损耗,由于电子流经非理想导体而产生的能量损耗。 G G G 表示介质损耗,由于非理想电介质…

鸿蒙开发——使用ArkTs处理XML文本

1、概 述 XML(可扩展标记语言)是一种用于描述数据的标记语言,旨在提供一种通用的方式来传输和存储数据,特别是Web应用程序中经常使用的数据。XML并不预定义标记。因此,XML更加灵活,并且可以适用于广泛的应…

微信小程序介绍-以及写项目流程(重要)

前言:本篇文章介绍微信小程序以及项目介绍: 文章介绍:介绍了微信小程序常用的指令、组件、api。tips:最好按照官方文档来进行学习,大致可以我的目录来学习,对于写项目是没有问题的 微信小程序官方文档https…

嵌入式蓝桥杯学习5 定时中断实现按键

Cubemx配置 打开cubemx。 前面的配置与前文一样,这里主要配置基本定时器的定时功能。 1.在Timer中点击TIM6,勾选activated。配置Parameter Settings中的预分频器(PSC)和计数器(auto-reload Register) 补…