Connecting the Dots: Multivariate Time Series Forecasting with Graph Neural Networks论文解读

Connecting the Dots: Multivariate Time Series Forecasting with Graph Neural Networks论文解读

  • MTGNN思路解读
    • INTRODUCTION

MTGNN思路解读

本博客主要讲解Connecting the Dots: Multivariate Time Series Forecasting with Graph Neural Networks(以下简称MTGNN)一文的文章思路。先更新INTRODUCTION,后面有空继续。

INTRODUCTION

  1. 多变量时间序列预测(Multivariate time series forecasting,MTSF)应用很广泛,但现存的方法没有有效得考虑变量之间的隐层相互关系。其中现存的方法一方面包括基于统计的vector auto-regressive model (VAR)和Gaussian process model (GP)之类,它们没办法探索变量之间的非线性关系而且容易过拟合;另一方面包括基于CNN和RNN的LSTNet和TPA-LSTM,它们虽然可以挖掘非线性关系,但是不能显式得建模任意两个变量之间的依赖关系。
  2. 图是一种考虑实体间关系的结构。把各个变量看作节点,MTSF也可以看作一个图结构。使用GNN来建模MTSF不仅可以挖掘它们的时间依赖,而且可以探索时间序列之间的关系。
  3. 目前常用的建模MTSF的GNN是spatial-temporal graph neural networks(STGCN),但它存在以下两个问题:
  • 在一些情况下,并没有已知的图结构。
  • 就算有已知的图结构,但这也不一定是最优的图结构。如何同时学习图结构和图节点表征至关重要。
  1. 基于此,本文提出MTGNN。MTGNN由graph learning layer, graph convolution moduletemporal convolution module组成。该模型很好得解决了以上两个问题。本文的主要贡献为:
  • 首次使用图神经网络从基于图的角度对多变量时间序列数据进行研究。
  • 提出graph learning layer来学习变量之间的隐层空间依赖,这对于使用GNN来处理无显式图结构的数据打开了一扇大门。
  • 建立了一个用于“建模多变量时间序列”和“学习图结构”的联合框架,其在无预定义的图结构下也可工作。
  • 实验结果表明本文的工作很叼。

你可能感兴趣的:(数据挖掘,深度学习)