SCALEFORMER: ITERATIVE MULTI-SCALE REFININGTRANSFORMERS FOR TIME SERIES FORECASTING

SCALEFORMER: ITERATIVE MULTI-SCALE REFINING TRANSFORMERS FOR TIME SERIES FORECASTING
最近,由于transformer的引入,时间序列预测的性能得到了极大的提高。本文提出一种通用的多尺度框架,可应用于最先进的基于transformer的时间序列预测模型(FEDformer, Autoformer等)。通过在多个尺度上迭代改进具有共享权重的预测时间序列,引入架构适应和特殊设计的规范化方案,能够实现显著的性能提升,在数据集和transformer架构上从5:5%到38:5%,而额外的计算开销很小。通过详细的消融研究,证明了在架构和方法上的每个贡献的有效性。此外,在各种公开数据集上的实验表明,所提出的改进优于相应的基线

SCALEFORMER: ITERATIVE MULTI-SCALE REFININGTRANSFORMERS FOR TIME SERIES FORECASTING_第1张图片

 在我们提出的方法中,如图1所示,时间序列预测在连续的时间步骤中进行迭代优化,使模型能够更好地捕捉每个尺度的相互依赖关系和特性

SCALEFORMER: ITERATIVE MULTI-SCALE REFININGTRANSFORMERS FOR TIME SERIES FORECASTING_第2张图片

 所提出的框架应用连续的transformer模块,在不同的时间尺度上迭代完善时间序列预测。建议的框架如图2所示SCALEFORMER: ITERATIVE MULTI-SCALE REFININGTRANSFORMERS FOR TIME SERIES FORECASTING_第3张图片

 总结:这篇论文是一种通用的结构,可以用在各种transformerm模型中。

你可能感兴趣的:(时间序列数据预测,深度学习,人工智能)