论文名称:Modeling Long- and Short-Term Temporal Patterns with Deep Neural Networks
论文下载:https://dl.acm.org/doi/abs/10.1145/3209978.3210006
论文年份:SIGIR 2018
论文被引:594(2022/04/21)
论文代码:https://github.com/laiguokun/LSTNet
论文数据:https://github.com/laiguokun/multivariate-time-series-data
Multivariate time series forecasting is an important machine learning problem across many domains, including predictions of solar plant energy output, electricity consumption, and traffic jam situation. Temporal data arise in these real-world applications often involves a mixture of long-term and short-term patterns, for which traditional approaches such as Autoregressive models and Gaussian Process may fail. In this paper, we proposed a novel deep learning framework, namely Long- and Short-term Time-series network (LSTNet), to address this open challenge. LSTNet uses the Convolution Neural Network (CNN) and the Recurrent Neural Network (RNN) to extract short-term local dependency patterns among variables and to discover long-term patterns for time series trends. Furthermore, we leverage traditional autoregressive model to tackle the scale insensitive problem of the neural network model. In our evaluation on real-world data with complex mixtures of repetitive patterns, LSTNet achieved significant performance improvements over that of several state-of-the-art baseline methods. All the data and experiment codes are available online.
【现实意义】
多变量时间序列预测是跨多个领域的重要机器学习问题,包括太阳能发电厂能量输出、电力消耗和交通拥堵情况的预测。
【存在问题】
在这些实际应用中出现的时间数据通常涉及长期和短期模式的混合,对于这些模式,自回归模型和高斯过程等传统方法可能会失败。
【解决方案】
在本文中,我们提出了一种新颖的深度学习框架,即长期和短期时间序列网络 (Long- and Short-term Time-series network, LSTNet),以应对这一开放挑战。 LSTNet 使用卷积神经网络 (CNN) 和循环神经网络 (RNN) 来提取变量之间的短期局部依赖模式,并发现时间序列趋势的长期模式。此外,我们利用传统的自回归模型来解决神经网络模型的尺度不敏感问题。
【实验结果】
在我们对具有重复模式的复杂混合的现实世界数据的评估中,LSTNet 比几种最先进的基线方法实现了显着的性能改进。所有数据和实验代码均可在线获取。
【现实意义】
多元时间序列数据在我们的日常生活中无处不在,从股票市场的价格、高速公路上的交通流量、太阳能发电厂的输出、不同城市的温度等等,不一而足。在此类应用中,用户通常对基于对时间序列信号的历史观察预测新趋势或潜在危险事件感兴趣。例如,可以根据提前几个小时预测的交通拥堵模式制定更好的路线计划,通过对近期股市的预测获得更大的利润。
【存在问题】
多元时间序列预测经常面临一个重大的研究挑战,即如何捕捉和利用多个变量之间的动态依赖关系。具体来说,现实世界的应用程序通常需要混合使用短期和长期重复模式。
【已有研究的局限性】
然而,传统方法,如自回归方法 [2, 12, 22, 32, 35] 中的大量工作在这方面存在不足,因为它们中的大多数没有区分这两种模式,也没有明确和动态地模拟它们的交互。解决现有方法在时间序列预测中的这些局限性是本文的主要重点,为此我们提出了一个新的框架,该框架利用了深度学习研究的最新发展。
【从粗粒度上阐述与本文相关的工作,本文是RNN和CNN】
深度神经网络已在相关领域得到深入研究,并对广泛问题的解决产生了非凡的影响。例如,递归神经网络 (RNN) 模型 [9] 在最近的自然语言处理 (NLP) 研究中变得最流行。特别是 RNN 的两个变体,即长短期记忆 (LSTM) [15] 和门控循环单元 (GRU) [6],显着提高了机器翻译、语音识别和其他 NLP 任务,因为它们可以根据输入文档中单词之间的长期和短期依赖关系有效地捕捉单词的含义 [1, 14, 19]。在计算机视觉领域,再举一个例子,卷积神经网络(CNN) 模型 [19, 21] 通过从输入图像中成功提取各种粒度级别的局部和移位不变特征(有时称为“shapelets”),显示出出色的性能。
【进一步阐述RNN和CNN应用于时间序列领域(分类,回归)的研究】
深度神经网络在时间序列分析中也受到越来越多的关注。先前工作的很大一部分都集中在时间序列分类上,即自动将类标签分配给时间序列输入的任务。例如,RNN 架构已被研究用于从医疗保健序列数据中提取信息模式 [5, 23],并根据诊断类别对数据进行分类。 RNN 也被应用于移动数据,用于根据动作或活动对输入序列进行分类 [13]。 CNN 模型也被用于动作/活动识别 [13, 20, 31],用于从输入序列中提取移位不变的局部模式作为分类模型的特征。
深度神经网络也被研究用于时间序列预测 [8, 33],即使用过去观察到的时间序列来预测前瞻视野中的未知时间序列的任务——视野越大,越难预测。在这个方向上的努力范围从早期使用朴素 RNN 模型 [7] 和结合使用 ARIMA [3] 和多层感知器 (MLP) 的混合模型 [16, 34, 35] 到最近将 vanilla RNN 和时间序列预测中的动态玻尔兹曼机[8]。
在本文中,我们提出了一个为多元时间序列预测设计的深度学习框架,即长期和短期时间序列网络 (LSTNet),如图 2 所示。
在真实世界季节性时间序列数据集的实验中,我们的模型始终优于传统的线性模型和 GRU 递归神经网络。
【本文剩余部分内容的组织】
本文的其余部分安排如下。第 2 节概述了相关背景,包括具有代表性的自回归方法和高斯过程模型。第 3 节描述了我们提出的 LSTNet。第 4 节报告了我们模型的评估结果,并与真实数据集上的强基线进行了比较。最后,我们在第 5 节总结我们的发现。
【ARIMA模型家族的优缺点】
自回归综合移动平均 (autoregressive integrated moving average , ARIMA) 模型:最突出的单变量时间序列模型之一。
优点:其统计特性以及模型选择过程中著名的 Box-Jenkins 方法 [2]。 ARIMA 模型不仅适用于各种指数平滑技术 [25],而且足够灵活,可以包含其他类型的时间序列模型,包括:
缺点:ARIMA 模型,包括它们用于建模长期时间依赖关系的变体 [2],由于其高计算成本而很少用于高维多元时间序列预测。
【VAR模型家族的优缺点】
向量自回归 (vector autoregression, VAR):由于其简单性,是多元时间序列 [2, 12, 24] 中使用最广泛的模型。 VAR 模型自然地将 AR 模型扩展到多变量设置,它忽略了输出变量之间的依赖关系。
近年来,各种 VAR 模型取得了重大进展,包括:
然而,VAR 的模型容量在时间窗口大小上呈线性增长,在变量数量上呈二次方增长。这意味着,在处理长期时间模式时,继承的大模型容易过拟合。为了缓解这个问题,[32] 提出将原始高维信号减少为低维隐藏表示,然后应用 VAR 进行预测,并选择多种正则化。
【线性回归+正则化的模型的优缺点】
时间序列预测问题也可以被视为具有时变参数的标准回归问题。因此,可以很自然地将具有不同损失函数和正则化项的各种回归模型应用于时间序列预测任务。例如:
由于机器学习社区中有高质量的现成求解器,这些线性方法实际上对于多变量时间序列预测更有效。尽管如此,与 VAR 一样,这些线性模型可能无法捕捉多元信号的复杂非线性关系,从而以牺牲效率为代价导致性能下降。
【高斯过程的优缺点】
高斯过程 (GP) 是一种用于对函数连续域上的分布进行建模的非参数方法。这与由诸如 VAR 和 SVR 等参数化函数类定义的模型形成对比。
然而,高斯过程的性能以高计算复杂度为代价。由于核矩阵的矩阵求逆,多变量时间序列预测的高斯过程的直接实现在观测数上具有三次复杂度。
在本节中,我们首先制定时间序列预测问题,然后在下一部分讨论所提出的 LSTNet 架构(图 2)的细节。最后,我们介绍了目标函数和优化策略。
在本文中,我们对多元时间序列预测的任务感兴趣。更正式地说,给定一系列完全观察到的时间序列信号 Y = y 1 , y 2 , . . . , y T Y = {y_1,y_2, ...,y_T } Y=y1,y2,...,yT 其中 y t ∈ R n y_t ∈ \R^n yt∈Rn, n n n 是变量维度,我们旨在以滚动预测方式预测一系列未来信号。话虽如此,为了预测 y T + h y_{T +h} yT+h,其中 h h h 是当前时间戳之前的理想范围,我们假设 { y 1 , y 2 , . . . , y T } \{y_1,y_2, . . . ,y_T\} {y1,y2,...,yT} 可用。同样,为了预测下一个时间戳 y T + h + 1 y_{T+h+1} yT+h+1 的值,我们假设 { y 1 , y 2 , . . . , y T , y T + 1 } \{y_1,y_2, . . . ,y_T ,y_{T +1}\} {y1,y2,...,yT,yT+1} 可用。因此,我们将时间戳 T T T 处的输入矩阵表示为 X T = { y 1 , y 2 , . . . , y T } ∈ R n × T X_T = \{y_1,y_2, . . . ,y_T \} ∈ \R^{n×T} XT={y1,y2,...,yT}∈Rn×T。
在大多数情况下,预测任务的范围是根据环境设置的要求来选择的,例如对于流量使用,感兴趣的范围从几小时到一天不等;对于股市数据,即使是提前几秒/分钟的预测对于产生回报也很有意义。
图 2 概述了建议的 LSTnet 架构。 LSTNet 是一个深度学习框架,专为混合长期和短期模式的多变量时间序列预测任务而设计。在接下来的部分中,我们将详细介绍 LSTNet 的构建块。
LSTNet 第一层是一个没有池化的卷积网络,旨在提取时间维度上的短期模式以及变量之间的局部依赖关系。卷积层由多个宽度为 ω 和高度为 n 的滤波器组成(高度设置为与变量个数相同)。第 k 个滤波器扫描输入矩阵 X 并产生
其中 * 表示卷积运算,输出 hk 将是一个向量,RELU 函数为 RELU (x) = max(0, x)。我们通过在输入矩阵 X 的左侧进行零填充来使每个向量 hk 的长度为 T 。卷积层的输出矩阵大小为 dc × T,其中 dc 表示滤波器的数量。
卷积层的输出同时被馈送到 Recurrent 组件和 Recurrent-skip 组件(将在 3.4 小节中描述)。循环组件是一个带有门控循环单元 (GRU) [6] 的循环层,并使用 RELU 函数作为隐藏更新激活函数。在时间 t 的循环单元的隐藏状态计算为:
其中 ⊙ 是元素乘积(element-wise product),σ 是 sigmoid 函数,xt 是该层在时间 t 的输入。该层的输出是每个时间戳的隐藏状态。虽然研究人员习惯于使用 tanh 函数作为隐藏更新激活函数,但我们凭经验发现 RELU 导致更可靠的性能,通过它梯度更容易反向传播。
带有 GRU [6] 和 LSTM [15] 单元的循环层经过精心设计,可以记住历史信息,从而了解相对长期的依赖关系。然而,由于梯度消失,GRU 和 LSTM 在实践中通常无法捕捉到非常长期的相关性。我们建议通过一种新颖的循环跳过组件来缓解这个问题,该组件利用现实世界集中的周期性模式。例如,每天的用电量和交通使用量都呈现出明显的规律。如果我们想预测今天 2 点的用电量,季节性预测模型中的一个经典技巧是利用历史日期中的 2 点记录,以及最近的记录。由于一个周期(24 小时)的长度极长以及随后的优化问题,这种类型的依赖关系很难被现成的循环单元捕获。受此技巧有效性的启发,我们开发了一种具有时间跳跃连接的循环结构,以扩展信息流的时间跨度,从而简化优化过程。具体来说,在当前隐藏单元和相邻周期中相同阶段的隐藏单元之间添加跳跃链接。更新过程可以表述为:
其中该层的输入是卷积层的输出,p 是跳过的隐藏单元的数量。对于具有明确周期性模式的数据集(例如,对于每小时用电量和交通使用数据集,p = 24),p 的值可以很容易地确定,并且必须进行调整。在我们的实验中,我们凭经验发现,即使在后一种情况下,经过良好调整的 p 也可以显着提高模型性能。此外,LSTNet 可以很容易地扩展为包含跳跃长度 p 的变体。
我们使用全连接层来组合 Recurrent 和 Recurrent-skip 组件的输出。全连接层的输入包括:
Recurrent 组件在时间戳 t 的隐藏状态,用 h t R h^R_t htR 表示,
从时间戳 t − p + 1 t - p + 1 t−p+1 到 t t t 的 Recurrent-skip 组件的 p 个隐藏状态,用 h t − p + 1 S , h t − p + 2 S , . . . , h t S h^S_{t-p+1},h^S_{t-p+2},. . . ,h^S_t ht−p+1S,ht−p+2S,...,htS 表示 。
其中 h t D h^D_t htD 是图 2 中神经网络(上)部分在时间戳 t t t 处的预测结果。
然而,Recurrent-skip 层需要一个预定义的超参数 p,这在非季节性时间序列预测中是不利的,或者其周期长度随时间变化。为了缓解这个问题,我们考虑了另一种方法,注意力机制[1],它在输入矩阵的每个窗口位置学习隐藏表示的加权组合。具体来说,当前时间戳 t 处的注意力权重 α t ∈ R q α_t ∈ \R^q αt∈Rq 计算为
α t = A t t n S c o r e ( H t R , h t − 1 R ) α_t = AttnScore(H^R_t ,h^R_{t−1}) αt=AttnScore(HtR,ht−1R)
其中 H t R = [ h t − q R , . . . , h t − 1 R ] H^R_t = [h^R_{t−q}, . . . ,h^R_{t−1}] HtR=[ht−qR,...,ht−1R] 是按列堆叠 RNN 的隐藏表示的矩阵,AttnScore 是一些相似函数,例如点积、余弦或由简单的多层感知器参数化。
时间注意层的最终输出是加权上下文向量 c t = H t α t c_t = H_t α_t ct=Htαt 和最后一个窗口隐藏表示 h t − 1 R h^R_{t-1} ht−1R 的连接,以及线性投影操作
h t D = W [ c t ; h t − 1 R ] + b . h^D_t = W [c_t ;h^R_{t−1}] + b. htD=W[ct;ht−1R]+b.
由于卷积和循环组件的非线性特性,神经网络模型的一个主要缺点是输出的规模对输入的规模不敏感。不幸的是,在特定的真实数据集中,输入信号的规模以非周期性的方式不断变化,这大大降低了神经网络模型的预测精度。 4.6 节给出了这种失败的具体例子。为了解决这个缺陷,在类似于 highway network [29],我们将 LSTNet 的最终预测分解为线性部分,主要关注局部缩放问题,加上包含重复模式的非线性部分。在 LSTNet 架构中,我们采用经典的自回归 (AR) 模型作为线性组件。将 AR 分量的预测结果记为 h t L ∈ R n h^L_t ∈ \R^n htL∈Rn,将 AR 模型的系数记为 W a r ∈ R q a r W^{ar} ∈ \R^{q^{ar}} War∈Rqar 和 b a r ∈ R b^{ar}∈ \R bar∈R,其中 q a r q^{ar} qar 是输入矩阵上输入窗口的大小。请注意,在我们的模型中,所有维度共享同一组线性参数。 AR 模型公式如下,
然后通过整合神经网络部分和 AR 组件的输出来获得 LSTNet 的最终预测:
其中 Y ^ t \hat{Y}_t Y^t 表示模型在时间戳 t t t 处的最终预测。
平方误差是许多预测任务的默认损失函数,相应的优化目标表示为,
其中 Θ 表示模型的参数集,ΩTrain 是用于训练的时间戳集,|| · ||F 是 Frobenius 范数,h 是 3.1 节中提到的范围。传统的带有平方损失函数的线性回归模型被命名为 Linear Ridge,相当于带有岭正则化的向量自回归模型。然而,实验表明,线性支持向量回归(线性 SVR)[30] 在某些数据集中优于线性岭模型。线性 SVR 和线性岭之间的唯一区别是目标函数。线性 SVR 的目标函数是,
其中 C 和 ϵ 是超参数。受线性 SVR 模型卓越性能的启发,我们将其目标函数纳入 LSTNet 模型作为平方损失的替代方案。为简单起见,我们假设 ϵ = 01,上面的目标函数简化为绝对损失(L1-loss)函数如下:
绝对损失函数的优点是它对实时序列数据中的异常具有更强的鲁棒性。在实验部分,我们使用验证集来决定使用哪个目标函数,平方损失 Eq.7 或绝对损失 Eq.9。
在本文中,我们的优化策略与传统时间序列预测模型中的优化策略相同。假设输入时间序列为 Yt = {y1,y2, . . . ,yt },我们定义了一个可调窗口大小 q,并将时间戳 t 处的输入重新表述为 Xt = {yt−q+1,yt−q+2, . . . ,yt }。然后,该问题成为具有一组特征值对 {Xt ,Yt+h } 的回归任务,并且可以通过随机梯度体下降 (SGD) 或其变体(例如 Adam [18])来解决。
我们在 4 个基准数据集上使用 9 种方法(包括我们的新方法)进行了广泛的实验,用于时间序列预测任务。所有数据和实验代码均可在线获取。
我们比较评估的方法如下。
对于上面的 AR、LRidge、LSVR 和 GP 等单输出方法,我们只是独立训练了 n 个模型,即 n 个输出变量中的每一个都训练一个模型。
我们使用了三个传统的评估指标,定义为:
其中 Y , Y ^ ∈ R n × T Y , \hat{Y} ∈ \R^{n×T} Y,Y^∈Rn×T 分别是真实信号和系统预测信号。RSE 是广泛使用的均方根误差 (RMSE) 的缩放版本,旨在使评估更具可读性,无论数据规模如何。 RSE 值越低越好,而 CORR 值越高越好。
我们使用了四个公开可用的基准数据集。表 1 总结了语料库的统计数据。
Traffic:加州交通部 48 个月(2015-2016)每小时数据的集合。该数据描述了旧金山湾区高速公路上不同传感器测量的道路占用率(介于 0 和 1 之间)。
Solar-Energy:2006 年的太阳能发电记录,每10 分钟从阿拉巴马州的137 个光伏电站采样一次。
Electricity:从2012 年到2014 年,每15 分钟记录一次电力消耗,单位为千瓦时,n = 321 个客户。我们转换数据以反映每小时消耗量;
Exchange-Rate:澳大利亚、英国、加拿大、瑞士、中国、日本、新西兰、新加坡等8个国家在1990年至2016年的每日汇率汇总。
所有数据集按时间顺序分为训练集(60%)、验证集(20%)和测试集(20%)。为了促进多元时间序列预测的未来研究,我们在网站上公开了所有原始数据集和预处理后的数据集。
为了检查时间序列数据中长期和/或短期重复模式的存在,在图 3 中,从四个数据集中随机选择一些变量绘制了自相关图。自相关,也称为序列相关,是一个信号,其自身的延迟副本是下面定义的延迟函数
其中 Xt 是时间序列信号,μ 是均值,σ2 是方差。在实践中,我们考虑经验无偏估计量来计算自相关。
我们可以在图 3 的图表 (a)、(b) 、© 和 (d) 中看到:
这些观察对于我们以后分析不同方法的实证结果很重要。也就是说,对于能够正确建模并成功利用数据中短期和长期重复模式的方法,当数据包含此类重复模式(如电力、交通和太阳能)时,它们应该表现出色。另一方面,如果数据集不包含此类模式(如汇率),则这些方法的优势可能不会比其他功能较弱的方法带来更好的性能。我们将在第 4.7 节中用经验论证重新讨论这一点。
我们对每个方法和数据集的保留验证集上的所有可调超参数进行网格搜索。具体来说,所有方法共享相同的窗口大小 q 的网格搜索范围,范围从 {20, 21, . . . , 29} 如果适用。对于 LRidge 和 LSVR,正则化系数 λ 选自 {2−10, 2−8, . . . , 28, 210}。对于 GP,RBF 内核带宽 σ 和噪声水平 α 选自 {2−10, 2−8, . . . , 28, 210}。对于 TRMF,隐藏维度选自 {22, . . . , 26} 和正则化系数 λ 从 {0.1, 1, 10} 中选择。对于 LST-Skip 和 LST-Attn,我们采用了第 3.8 节中描述的训练策略。循环和卷积层的隐藏维度从 {50, 100, 200} 和 {20, 50, 100} 中选择用于循环跳过层。对于交通和电力数据集,循环跳跃层的跳跃长度 p 设置为 24,对于太阳能和汇率数据集,调整范围从 21 到 26。 AR 分量的正则化系数从 {0.1, 1, 10} 中选择以达到最佳性能。我们在每一层之后执行 dropout,除了输入和输出层,并且速率通常设置为 0.1 或 0.2。 Adam[18] 算法用于优化模型的参数。
表 2 总结了所有方法(8)在所有指标(3)中对所有测试集(4)的评估结果。我们分别设置horizon = {3, 6, 12, 24},这意味着对于电力和交通数据的预测,范围设置为3到24小时,对于太阳能数据的预测设置为30到240分钟,对于汇率数据从 3 到 24 天。视野越大,预测任务就越难。每个(数据、指标)对的最佳结果在此表中以粗体突出显示。 LSTNet-Skip(提出的 LSTNet 的一个版本)的粗体结果总数为 17,LSTNet-Attn(我们的 LSTNet 的另一个版本)为 7,其余方法的总数为 0 到 3。
将单变量 AR 的结果与多变量基线方法(LRidge、LSVR 和 RNN)的结果进行比较,我们看到在某些数据集中,即 Solar-Energy 和 Traffic,多变量方法更强,但在其他方面更弱,这意味着更丰富输入信息会导致传统多变量方法的过度拟合。相比之下,LSTNet 在不同情况下具有强大的性能,部分原因在于它的自回归组件,我们将在 4.6 节进一步讨论。
为了证明我们的框架设计的效率,我们进行了仔细的消融研究。具体来说,我们在 LSTNet 框架中一次删除每个组件。首先,我们将没有不同组件的 LSTNet 命名如下。
对于不同的基线,我们调整模型的隐藏维度,使它们具有与完整的 LSTNet 模型相似数量的模型参数,消除了由模型复杂性引起的性能增益。
使用 RSE 和 CORR 测量的测试结果如图 5 6 所示。这些结果的几个观察结果值得强调:
结论是,我们的架构设计在所有实验设置中都是最稳健的,尤其是在大的预测范围时。至于为什么 AR 组件会发挥如此重要的作用,我们的解释是 AR 通常对数据的规模变化具有鲁棒性。
为了从经验上验证这种直觉,我们在图 6 中绘制了电力消耗数据集中 1 到 5000 小时持续时间的一维(一个变量)时间序列信号,其中蓝色曲线是真实数据,红色曲线是系统- 预测信号。我们可以看到,真正的消耗在第 1000 小时左右突然增加,LSTNet-Skip 成功捕捉到了这种突然的变化,但 LSTw/oAR 未能正确反应。
为了更好地验证这个假设,我们进行了模拟实验。首先,我们通过以下步骤随机生成一个尺度变化的自回归过程。首先,我们随机采样一个向量 w ∼ N (0, I),w ∈ Rp,其中 p 是给定的窗口大小。那么生成的自回归过程 xt 可以描述为
其中 ϵ ∼ N (µ, 1)。为了注入尺度变化,我们将高斯噪声的平均值每 T 个时间戳增加 µ0。则时间序列 xt 的高斯噪声可写为
其中⌊·⌋表示底函数。
我们将时间序列拆分为训练集并按时间顺序进行测试,并测试 RNN-GRU 和 LSTNet 模型。结果如图 4 所示。RNN-GRU 和 LSTNet 都可以记住训练集中的模式(左侧)。但是,RNN-GRU 模型无法遵循测试集中的尺度变化模式(右侧)。相反,LSTNet 模型更适合测试集。换句话说,普通的 RNN 模块,或者说 LSTNet 中的神经网络组件,可能对数据中违反的尺度波动不够敏感(这在电力数据中很典型,可能是由于公共假期的随机事件或温度波动等),而简单的线性AR模型可以在预测中做出适当的调整。
总之,这项消融研究清楚地证明了我们架构设计的效率。所有组件都为 LSTNet 的出色而强大的性能做出了贡献。
为了说明 LSTNet 在对时间序列数据中短期和长期重复模式混合建模方面的成功,图 7 比较了数据集 LSTNet 和 VAR 在 Traffic 中特定时间序列(输出变量之一)上的性能。如第 4.3 节所述,流量数据表现出两种重复模式,即每日和每周。我们可以在图 7 中看到,
在本文中,我们提出了一种用于多变量时间序列预测任务的新型深度学习框架 (LSTNet)。通过结合卷积和递归神经网络的优势以及自回归组件,所提出的方法显着改善了在多个基准数据集上进行时间序列预测的最新结果。通过深入的分析和经验证据,我们展示了 LSTNet 模型架构的效率,它确实成功地捕获了数据中的短期和长期重复模式,并结合了线性和非线性模型来进行稳健的预测。
对于未来的研究,扩展工作有几个有希望的方向。首先,跳跃循环层的跳跃长度 p 是一个关键的超参数。目前,我们根据验证数据集手动调整它。如何根据数据自动选择p是一个有趣的问题。其次,在卷积层中我们平等对待每个可变维度,但在现实世界的数据集中,我们通常拥有丰富的属性信息。将它们集成到 LSTNet 模型中是另一个具有挑战性的问题。