时间序列预测各类算法探究上篇

前言: 最近项目需要对公司未来业绩进行预测,以便优化决策,so 研究一下时序算法。纯个人理解,记录以便备用(只探究一下原理,所有算法都使用基本状态,并未进行特征及参数优化)。

环境: python3.10 + jupyter

文章目录

    • 1、时间序列基本概念
    • 2、数据准备
      • 2.1 相关库导入
      • 2.2 数据获取
      • 2.3 选取本次测试数据(2号商店、0类产品数据)
    • 3、模型测试
      • 3.1 传统时序建模
        • 3.1.1 平稳性检验(单位根检验)+ 差分预处理
        • 3.1.2 自相关acf(auto-correlation function) 和偏自相关pacf(partial auto-correlation function) 图
        • 3.1.3 自相关 和 偏自相关 说明的问题
        • 3.1.4 ARIMA模型:
      • 3.2 机器学习模型
        • 3.2.1 LR (线性回归)
        • 3.2.2 Xgboost

1、时间序列基本概念

时间序列:是在连续等间隔时间点(秒、分、天、月等)上所获取的同一观察对象的状态值的序列。

一般组成:

​ 1. 趋势性:随着时间的发展和变化,观测值呈现一种比较缓慢而长期的持续上升或下降的趋势。

​ 2. 季节性:观测值随着自然季节的交替出现高峰与波谷的规律。

​ 3. 周期性:观测值受产品特性或市场规律周期性变动,不随季节变化。

​ 4. 随机性:个别随机噪声。

平稳性:从统计学的角度来看,平稳性是指数据的分布在时间上平移时不发生变化(均值和方差几乎不变)。

白噪声:均值为0的平稳序列,随机噪声,频谱类似白光光谱,故称白噪声。

差分:目的让序列变平稳
设函数 y t = f ( t ) 在 t = 0 , 1 , 2 , 3... 处有定义,对应的函数值为 y 0 , y 1 , y 2 , y 3 . . . , 则函数 y t = f ( t ) 在 t 处的一阶差分定义为: △ y t = y t + 1 − y t = f t + 1 − f t 设函数y_t=f(t)在t=0,1,2,3...处有定义,对应的函数值为y_0,y_1,y_2,y_3... ,则函数y_t=f(t)在t处的一阶差分定义为:\\ \triangle y_t=y_{t+1}-y_t=f_{t+1}-f_t 设函数yt=f(t)t=0,1,2,3...处有定义,对应的函数值为y0,y1,y2,y3...,则函数yt=f(t)t处的一阶差分定义为:yt=yt+1yt=ft+1ft

2、数据准备

2.1 相关库导入

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
import random
import arrow


# 编码
from category_encoders import TargetEncoder

# 传统统计模型
import statsmodels.tsa.api as sm 
from statsmodels.graphics.tsaplots import plot_acf,plot_pacf
from statsmodels.tsa.stattools import adfuller

# 机器学习模型
from sklearn.linear_model import Ridge,LinearRegression
from sklearn.preprocessing import OneHotEncoder,MaxAbsScaler
import xgboost as xgb

# 深度学习
import torch
import torch.nn as nn
from torch.nn import L1Loss,MSELoss
from torch.optim import SGD,Adam
from torch.utils.data import Dataset,DataLoader


import warnings

warnings.filterwarnings('ignore')

sns.set_theme(style='darkgrid',font='Microsoft YaHei')

2.2 数据获取

kaggle 时序数据集 https://www.kaggle.com/datasets/samuelcortinhas/time-series-practice-dataset

该数据集包含不同商店下不同产品2010-2020年10年的销量数据。(应该是人造数据)

# 1. 数据集探索
data = pd.read_csv('./data/train.csv',parse_dates=['Date'])
store = data['store'].unique()  # 商店编号
product = data['product'].unique() # 产品编号

# 2. 展示随机商店、随机产品时序图
fg,axes = plt.subplots(nrows=5,ncols=1,sharex=True)
for ax in axes:
    store_selected = random.choice(store)
    product_selected = random.choice(product)
    ax.plot(data.query(f'store == {store_selected} & product == {product_selected}')['Date'],data.query(f'store == {store_selected} & product == {product_selected}')['number_sold'])
    ax.set_title(f'随机商店:{store_selected}  随机产品:{product_selected}')
fg.set_size_inches(20,10)

时间序列预测各类算法探究上篇_第1张图片

2.3 选取本次测试数据(2号商店、0类产品数据)

# 1. 选取测试时序数据
store = 2 
product = 0
data_train = pd.read_csv('./data/train.csv',parse_dates=['Date']).query(f'store == {store} & product == {product}')[['Date','number_sold']]  # 训练集
data_test = pd.read_csv('./data/test.csv',parse_dates=['Date']).query(f'store == {store} & product == {product}')[['Date','number_sold']]  # 测试集

# 2. 训练集与测试集整体状态
plt.subplot(3,1,1)
plt.plot(data_train['Date'],data_train['number_sold'],label='观测值')
plt.plot(data_test['Date'],data_test['number_sold'],label='待预估值')
plt.title('trend + seasonal Time Series')
plt.legend()

# 2.2 查看年中规律
plt.subplot(3,1,2)
year = random.choice(range(2010,2019)) # 随机选取年
year_selected = f'Date >= "{year}-01-01" & Date <= "{year}-12-31"'
plt.plot(data_train.query(year_selected)['Date'],data_train.query(year_selected)['number_sold'],label='观测值')
plt.title('随机选取其中一年查看其它规律')
plt.legend()

# 2.3 查看月中规律
plt.subplot(3,1,3)
month = random.choice(range(1,13))     # 随机选取月
month_start = f"{year}-{month:0>2}-01"
month_end = arrow.get(month_start).ceil('month').date()
month_select  = f'Date >= "{month_start}" & Date <= "{month_end}"'
plt.plot(data_train.query(month_select)['Date'],data_train.query(month_select)['number_sold'],label='观测值')
plt.title('随机选取其中一月查看其它规律')
plt.legend()

plt.gcf().set_size_inches(20,12)

如图:该序列具有增长趋势和年季节性特性,无明显节假日和week特性。

时间序列预测各类算法探究上篇_第2张图片

3、模型测试

3.1 传统时序建模

3.1.1 平稳性检验(单位根检验)+ 差分预处理
# 1. 差分 
data_train['number_sold_diff'] = data_train['number_sold'].diff(1)

# 2. 季节差分
data_train['number_sold_season_diff'] = data_train['number_sold'].diff(365)

# 3. 差分 + 季节差分
data_train['number_sold_diff_season'] = data_train['number_sold_diff'].diff(365)

# 4. 删除差分后空值
data_train.dropna(inplace=True)

# 5.单位根检验(原假设:该序列为非平稳序列)
origin_pvalue = adfuller(data_train['number_sold'])[1]
diff_pvalue = adfuller(data_train['number_sold_diff'])[1]
season_diff_pvalue = adfuller(data_train['number_sold_season_diff'])[1]
diff_and_season_diff_pvalue = adfuller(data_train['number_sold_diff_season'])[1]

# 6. 绘制各种差分后序列图
plt.subplot(3,1,1)
plt.plot(data_train['Date'],data_train['number_sold_diff'])
plt.title(f'一阶差分,;单位根检验p值:{diff_pvalue}')
plt.subplot(3,1,2)
plt.plot(data_train['Date'],data_train['number_sold_season_diff'])
plt.title(f'季节差分;单位根检验p值:{season_diff_pvalue}')
plt.subplot(3,1,3)
plt.plot(data_train['Date'],data_train['number_sold_diff_season'])
plt.title(f'一阶差分 + 一阶季节差分;单位根检验p值:{season_diff_pvalue}')
plt.gcf().set_size_inches(20,12)


如图:一阶差分、季节差分、一阶差分 + 一阶季节差分 3种差分后单位根检验p值都接近于0,差分后均为平稳序列

时间序列预测各类算法探究上篇_第3张图片

3.1.2 自相关acf(auto-correlation function) 和偏自相关pacf(partial auto-correlation function) 图
fg,axes = plt.subplots(4,2)

for i,v in enumerate([('原始序列','number_sold'),('一阶差分','number_sold_diff'),('一阶季节差分','number_sold_season_diff'),('一阶差分 + 一阶季节差分','number_sold_diff_season')]):
    _ = plot_acf(data_train[v[1]],axes[i][0],lags=740)  # 滞后选740 是因为从原始序列图上看,序列具有年(365)周期性, 740>2*T:查看跨两个周期的相关性
    _ = plot_pacf(data_train[v[1]],axes[i][1],lags=740)
    axes[i][0].set_title(f'{v[0]} Autocorrelation')
    axes[i][1].set_title(f'{v[0]} Partial Autocorrelation')

fg.set_size_inches(20,16)

时间序列预测各类算法探究上篇_第4张图片

3.1.3 自相关 和 偏自相关 说明的问题
# 1. 测试序列(探究 acf 和 pacf 底层计算原理 )
test_y = np.array(data_train['number_sold_season_diff'])

# 2. 自相关性:观测值序列 y_t 和 自身滞后K项 y-k 序列的皮尔逊相关系数,探究 y_t 和 y-k 的相关性
acf_values = sm.acf(test_y)  # 使用statsmodels 库计算acf
acf_values # [ 1.00000000e+00, -2.15194759e-02,  1.94488838e-03, -9.45217080e-03,...]

# 3. 偏相关性: 排除y_{t-1}、y_{t-2}...y{t-k+1}的影响后(排除原理看手动计算),观测值序列 y_t 和 自身滞后K项 y-k 序列的皮尔逊相关系数
pacf_values = sm.pacf(test_y)
pacf_values # [1.00000000e+00, -2.15268456e-02,  1.48350334e-03, -9.39249278e-03,...]


# 4. 手动计算 acf 和 pacf(以k=2 为例)
y_t = test_y[2:]      # y_t
y_t_1 = test_y[1:-1]  # y_{t-1}
y_t_2 = test_y[:-2]   # y_{t-2}

# 自相关 直接求 x_t 和 x_{t-2}序列 的皮尔逊相关系数
acf_values_lag2 = np.corrcoef(y_t,y_t_2)[0,1]    # np.corrcoef() 求两数组的协方差矩阵
acf_values_lag2  # 0.0019469889265725335 与 sm.acf 函数值 1.94488838e-03 基本一致

# 求偏相关系数需要排除y_{t-1}的影响,分别对 y_t与y_{t_1} 和 y_{t-2}与y_{t_1}进行线性拟合,对拟合后的残差再计算相关性
p1 = np.polyfit(y_t_1,y_t_2,deg=1)              # np.polyfit(x,y) 多项式拟合 
residual_t_2 = np.polyval(p1,y_t_1) - y_t_2     # 计算拟合残差

p2 = np.polyfit(y_t_1,y_t,deg=1)
residual_t = np.polyval(p2,y_t_1) - y_t

pacf_values_lag2 = np.corrcoef(residual_t_2,residual_t)[0,1] # 计算残差间协方差矩阵
pacf_values_lag2  # 0.001487371254079463 与 sm.pacf 函数得出的值 1.48350334e-03 基本一致

网传: pacf 图截尾,acf 图拖尾 使用ar模型;pacf 图拖尾,acf 图截尾 使用ma模型;pacf 图和acf图同时拖尾或截尾 使用arma模型。(不是太理解)

个人理解

自相关acf图:直接衡量的是当前观测值(y_t)与过去观测值(y_(t-k))之间的相关性,包括直接或间接的相关性(随机生成两组数,两者之间皮尔逊系数可能都不为0)。

偏自相关pacf图:y_t 除去y_(t-1)、y_(t-2) … y_(t-k+1) 已经解释部分后,y_(t-k)还单独可以贡献多少价值,更直接地说明了y_t 与 y_(t-k) 两者之间的相关性。

pacf 比 acf 好处: 如ar(2)模型,y_(t-1) 已经包含y_(t-2)几乎所有的信息,y_(t-2)可贡献剩余价值几乎没有的情况下,可以设为ar(1)模型 。减少滞后项、模型复杂度降低;可避免多重共线性问题。这可能是ar模型看pacf图截尾的原因。

3.1.4 ARIMA模型:
  • AR模型(AutoRegressive Model) 自回归模型:利用自身过去值的线性组合进行建模,预测当前值。
    Y t = c + ψ 1 Y t − 1 + ψ 2 Y t − 2 + . . . + ψ p Y t − p + ε t p 阶自回归公式 其中: c 为常量, ψ 为自回归系数, Y t − p 为 t − p 时刻的观察值, ε t 误差项 Y_t = c+\psi_1Y_{t-1}+\psi_2Y_{t-2}+ ...+\psi_pY_{t-p}+\varepsilon_t \quad\quad p阶自回归公式\\ 其中:c为常量,\psi为自回归系数,Y_{t-p}为t-p时刻的观察值,\varepsilon_t 误差项 Yt=c+ψ1Yt1+ψ2Yt2+...+ψpYtp+εtp阶自回归公式其中:c为常量,ψ为自回归系数,Ytptp时刻的观察值,εt误差项
    前提假设:

    1. 时序依赖:  当前观测值与前p个时刻的观测值之间存在线性关系
    2. 时序衰减:  当前观测值与近期过去的观测值相关强,与距今较远时刻的观测值相关性减弱或无相关。
    
    # 1. AR模型
    model_ar = sm.AutoReg(
                          endog=data_train['number_sold'], # 观测值
                          lags=3,      # 自回归阶数 这里试过1,3,7,10 效果几乎无差别
                          trend='ct',  # 包含常数项c和趋势项trend
                          seasonal=True,   # 开启季节性
                          period=365,      # 季节性周期
                          exog = None      # 引入外部变量
                          )
    model_ar_res = model_ar.fit()
    res = model_ar_res.forecast(steps=data_test.shape[0])
    
    # 2. 绘制测试集拟合效果图
    plt.figure(figsize=(20,5))
    plt.plot(data_train['Date'],data_train['number_sold'],label='训练观测值')
    plt.plot(data_test['Date'],data_test['number_sold'],label='测试观测值')
    plt.plot(data_test['Date'],res,label='测试预估值')
    plt.title('ar自回归')
    plt.legend()
    

    时间序列预测各类算法探究上篇_第5张图片

    AutoReg 自回归模型 底层执行原理

            1. 根据参数创建特征变量X [  常数项系数1(c),索引序号(trend),  365天哑变量(seasonal),L1、L2、L3 (p阶滞后项) ]  。
            2. 将特征X 与 y 观测值作岭回归拟合。
            3. 逐步迭代预估未来值(每一步预测值是下一步预测的滞后值)[具体流程可参考[LR复现ar]](#lr)
    
    # 1. AR 初始化生产X特征变量
    exog = model_ar._x[0]              # 第一个样本特征值
    exog_names = model_ar.exog_names   # 样本变量名称
    np.hstack((np.array(exog_names).reshape(-1,1),np.array(exog).reshape(-1,1)))
    
    '''
    array([['const', '1.0'],     # 第一项常数项,初始化为1
           ['trend', '4.0'],     # 趋势项索引,初始化为4,因为前3项属于滞后项  
           ['s(2,365)', '0.0'],  # 365年季节性哑变量
           ['s(3,365)', '0.0'],
           ['s(4,365)', '1.0'],
           ['s(5,365)', '0.0'],
           ['s(6,365)', '0.0'],
            ...
           ['s(364,365)', '0.0'],
           ['s(365,365)', '0.0'],
           ['number_sold.L1', '722.0'], # 3阶滞后项
           ['number_sold.L2', '735.0'],
           ['number_sold.L3', '737.0'],
    '''
    
  • MA模型(Moving Average Model) 移动平均模型:利用自身过去项随机误差的线性组合进行建模,目的消除预测中随机扰动误差。
    Y t = μ + ε t + θ 1 ε t − 1 + θ 2 ε t − 2 + . . . + θ q ε t − q q 阶移动平均 其中: μ 为序列均值或期望, θ 为回归系数, ε t 当前误差 , ε t − q 为 t − q 时刻误差或噪声 Y_t = \mu+\varepsilon_t+\theta_1\varepsilon_{t-1}+\theta_2\varepsilon_{t-2}+ ...+\theta_q\varepsilon_{t-q} \quad\quad q阶移动平均\\ 其中:\mu为序列均值或期望,\theta为回归系数,\varepsilon_t 当前误差,\varepsilon_{t-q}为t-q时刻误差或噪声 Yt=μ+εt+θ1εt1+θ2εt2+...+θqεtqq阶移动平均其中:μ为序列均值或期望,θ为回归系数,εt当前误差,εtqtq时刻误差或噪声
    前提假设:

    1. 时间序列为平稳序列(具有常数的均值和方差)
    2. 时序依赖:当前观测值与过去时刻的误差项之间存在关联
    3. 时序衰减:当前观测值与近期过去的误差项相关强,与距今较远时刻的误差项相关性减弱或无相关。

    与AR模型区别

    AR: 认为当前值与过去p个时刻内观测值线性相关。

    MR: 大部分时候时间序列应该是稳定的(即一段时间内,时间序列应该围绕着某个均值上下波动),在稳定的基础上,某个时刻的值受过去q个时刻的随机误差影响(说是随机误差,更像是过去因偶然事件产生的数值误差,会对未来造成隐形,如前q天因雨天影响突然降低的客户数,会在未来几天到来),MA能有效地消除预测中的偶然误差带来的波动

    # 1. MA 模型
    # 创建ma测试数据ma(1)
    test_data_ma = pd.DataFrame({'c': [1 for i in range(120)],'noise':0}) # 均值为1
    random_index = np.array(random.sample(set(test_data_ma.index[:-1]),k=30)+[99])
    test_data_ma.loc[random_index,'noise'] = test_data_ma.loc[random_index,'noise'] - 2  # 假设 t-1 时刻因特殊原因顾客- 2,t时刻会回补
    test_data_ma.loc[random_index+1,'noise'] = test_data_ma.loc[random_index+1,'noise'] + 2
    test_data_ma['c + noise'] = test_data_ma['c'] + test_data_ma['noise']
    
    # 2. 分训练与测试
    test_ma_train = test_data_ma.iloc[:100,:]
    test_ma_test = test_data_ma.iloc[100:,:]
    
    # 3. 拟合预测
    model_ma = sm.ARIMA(endog=test_ma_train['c + noise'],order=(0,0,1))
    model_ma = model_ma.fit()
    res = model_ma.forecast(steps=test_ma_test.shape[0])
    
    # 4. 绘制拟合效果图
    plt.figure(figsize=(12,3))
    plt.plot(test_ma_train.index,test_ma_train['c + noise'],label='训练观测值',linestyle=':',marker='.')
    plt.plot(test_ma_test.index,test_ma_test['c + noise'],label='测试观测值',linestyle=':',marker='.')
    plt.plot(test_ma_test.index,res,label='测试预估值',linewidth=3,c='r',linestyle='-.',marker='.') 
    plt.legend()
    plt.title('ma 模型')
    

    时间序列预测各类算法探究上篇_第6张图片

    如图:在99时刻误差 -2 预测100时刻时,进行了回补。但>100时刻预估值全部为1(均值),是因为公式中在这里插入图片描述项预测时未来误差未知。

    ma底层原理: ma模型拟合的主要是误差。

    1. 初始误差 = 观测值 - 1 (在statsmodels中ma模型假定初次拟合值全部为1)

    2. 然后按误差进行自回归线性拟合,求新拟合值 。

    3. 将新拟合值与观测值相减求新误差。

    4. 重复 2、3步 直到达到最大迭代次数或新误差小于设定值。

  • ARIMA模型: 将AR模型与MA 进行组合(查看底层math如下)
    ( 1 − L ) d ( 1 − L s ) D Φ ( L ) Φ s ( L ) y t = Θ ( L ) Θ s ( L ) η t 其中 : ϵ t : 预测时当前误差项 η t ∼ W N ( 0 , σ 2 ) : 白噪声过程 L : 滞后算子 Φ ( L ) : 自回归多项式 Φ s ( L ) : 季节自回归多项式 Θ ( L ) : 移动平均多项式 Θ s ( L ) : 季节移动平均多项式 \begin{array}{l} \left(1-L\right)^{d}\left(1-L^{s}\right)^{D}\Phi\left(L\right)\Phi_{s}\left(L\right)y_{t} = \Theta\left(L\right)\Theta_{s}\left(L\right)\eta_{t} \\ 其中: \\\epsilon_{t}: 预测时当前误差项\\ \eta_t \sim WN(0,\sigma^2): 白噪声过程 \\ L: 滞后算子\\ \Phi(L):自回归多项式\\ \Phi_s(L):季节自回归多项式\\ \Theta(L):移动平均多项式\\ \Theta_s(L):季节移动平均多项式 \end{array} (1L)d(1Ls)DΦ(L)Φs(L)yt=Θ(L)Θs(L)ηt其中:ϵt:预测时当前误差项ηtWN(0,σ2):白噪声过程L:滞后算子Φ(L):自回归多项式Φs(L):季节自回归多项式Θ(L):移动平均多项式Θs(L):季节移动平均多项式

    上述公式确实没看懂 (符号数学)以下纯个人理解

    • 滞后算子

    L : 滞后算子,代表着一种滞后操作, L y t = y t − 1 、 L 2 y t = y t − 2 . . . L k y t = y t − k ( 1 − L ) y t : 表示对 y t 序列做一阶差分, ( 1 − L ) d y t : 表示对 y t 序列做 d 阶差分 L: 滞后算子,代表着一种滞后操作,Ly_t=y_{t-1}、L^2y_t=y_{t-2} ... L^ky_t=y_{t-k}\\ (1-L)y_t:表示对y_t序列做一阶差分,(1-L)^dy_t:表示对y_t序列做d阶差分\\ L:滞后算子,代表着一种滞后操作,Lyt=yt1L2yt=yt2...Lkyt=ytk(1L)yt:表示对yt序列做一阶差分,(1L)dyt:表示对yt序列做d阶差分

    • ar部分
      y t = ψ 1 y t − 1 + ψ 2 y t − 2 + . . . + ψ p y t − p + ε t y t = ψ 1 L y t + ψ 2 L 2 y t + . . . + ψ p L P y t + ε t ε t = ( 1 − c + ψ 1 L + ψ 2 L 2 + . . . + ψ p L P ) y t ε t = Φ ( L ) y t y_t = \psi_1y_{t-1}+\psi_2y_{t-2}+ ...+\psi_py_{t-p}+\varepsilon_t\\ y_t = \psi_1Ly_t+\psi_2L^2y_t+ ...+\psi_pL^Py_t+\varepsilon_t\\ \varepsilon_t = (1 - c+\psi_1L+\psi_2L^2+ ...+\psi_pL^P)y_t\\ \varepsilon_t =\Phi(L)y_t yt=ψ1yt1+ψ2yt2+...+ψpytp+εtyt=ψ1Lyt+ψ2L2yt+...+ψpLPyt+εtεt=(1c+ψ1L+ψ2L2+...+ψpLP)ytεt=Φ(L)yt

    • ma部分
      y t = ε t + θ 1 ε t − 1 + θ 2 ε t − 2 + . . . + θ q ε t − q y t = ε t + θ 1 L ε t + θ 2 L 2 ε t + . . . + θ q L q ε t y t = ( 1 + θ 1 L + θ 2 L 2 + θ q L q ) ε t y t = Θ ( L ) ε t y_t = \varepsilon_t+\theta_1\varepsilon_{t-1}+\theta_2\varepsilon_{t-2}+ ...+\theta_q\varepsilon_{t-q}\\ y_t = \varepsilon_t+\theta_1L\varepsilon_t+\theta_2L^2\varepsilon_t+ ...+\theta_qL^q\varepsilon_t\\ y_t = (1+\theta_1L+\theta_2L^2+\theta_qL^q)\varepsilon_t\\ y_t = \Theta(L)\varepsilon_t yt=εt+θ1εt1+θ2εt2+...+θqεtqyt=εt+θ1Lεt+θ2L2εt+...+θqLqεtyt=(1+θ1L+θ2L2+θqLq)εtyt=Θ(L)εt

    • arima(若ar与ma结合,ma模型拟合的目标在这里插入图片描述是ar拟合后的误差部分在这里插入图片描述)
      m a 公式变换形式: ε t = μ + Θ ( L ) η t 则 a r m a : Φ ( L ) y t = Θ ( L ) ε t 对 y t 进行差分: Φ ( L ) ( 1 − L ) d y t = Θ ( L ) ε t ma公式变换形式:\\ \varepsilon_t = \mu+\Theta(L)\eta_{t}\\ 则arma:\\ \Phi(L)y_t=\Theta(L)\varepsilon_t\\ 对y_t进行差分:\\ \Phi(L)(1-L)^dy_t=\Theta(L)\varepsilon_t ma公式变换形式:εt=μ+Θ(L)ηtarmaΦ(L)yt=Θ(L)εtyt进行差分:Φ(L)(1L)dyt=Θ(L)εt

    # 1. arima 模型
    model_arima = sm.ARIMA(endog=data_train['number_sold'],order=(3,0,1),seasonal_order=(1,1,0,365),trend='t') 
    model_arima = model_arima.fit(method='innovations_mle', low_memory=True, cov_type='none') # period=365 周期太长 ,拟合跑的很慢,大概耗时 10min
    res = model_arima.forecast(steps=data_test.shape[0])
    
    # 2. 绘制arima预测效果
    plt.figure(figsize=(20,5))
    plt.plot(data_train['Date'],data_train['number_sold'],label='训练观测值')
    plt.plot(data_test['Date'],data_test['number_sold'],label='测试观测值')
    plt.plot(data_test['Date'],res,label='测试预估值')
    plt.title('arima 季节移动平均自回归')
    plt.legend()
    

    时间序列预测各类算法探究上篇_第7张图片

​ 如图:在AR模型的基础上加上ma模型误差弥补,预估效果改善不少。

3.2 机器学习模型

3.2.1 LR (线性回归)
# 1.lr 模型 按照AutoReg自回归模型创建X特征矩阵
# 参数
maxlag = 3  # 滞后阶级
s = 365     # 季节性周期

# 2. 创建二维滞后数组函数
def lagmat(x,maxlag):
    x_ = np.zeros((x.shape[0],maxlag))
    for i in range(maxlag):
        x_[:,i] = x.shift(-i)
    return np.roll(x_,shift=maxlag,axis=0)


# 3. 生产训练集X特征 
data_lr_train = pd.DataFrame({'date':data_train['Date'],'y':data_train['number_sold'],'trend':np.arange(data_train.shape[0])})
data_lr_train['seasonal'] = data_lr_train['date'].dt.dayofyear

# 4. 数据编码(季节性编码)
onehotencoder = OneHotEncoder()
data_lr_train.loc[:,[f's.{i}'for i in range(s+1)]] = onehotencoder.fit_transform(data_lr_train.loc[:,['seasonal']]).toarray()

# 5. 添加滞后列
data_lr_train.loc[:,[f'L{i}' for i in range(1,maxlag+1)]] = lagmat(data_train['number_sold'],maxlag)
data_lr_train = data_lr_train.iloc[maxlag+1:,:]  # 剔除初始无滞后项数据

# data_lr_train
#  date	y	trend	seasonal	s.0	s.1	s.2	s.3	s.4	s.5	...	s.359	s.360	s.361	s.362	s.363	s.364	s.365	L1	L2	L3
#  2011-01-06	727	4	6	0.0	0.0	0.0	0.0	0.0	1.0	...	0.0	0.0	0.0	0.0	0.0	0.0	0.0	735.0	722.0	748.0
#  2011-01-07	735	5	7	0.0	0.0	0.0	0.0	0.0	0.0	...	0.0	0.0	0.0	0.0	0.0	0.0	0.0	722.0	748.0	727.0
#  2011-01-08	733	6	8	0.0	0.0	0.0	0.0	0.0	0.0	...	0.0	0.0	0.0	0.0	0.0	0.0	0.0	748.0	727.0	735.0

# 6.生成测试集
data_lr_test = pd.DataFrame({'date':data_test['Date'],'y':data_test['number_sold'],'trend':np.arange(data_train.shape[0],data_train.shape[0]+data_test.shape[0])})
data_lr_test['seasonal'] = data_lr_test['date'].dt.dayofyear
data_lr_test.loc[:,[f's.{i}'for i in range(s+1)]] = onehotencoder.transform(data_lr_test.loc[:,['seasonal']]).toarray()


train_x,train_y = data_lr_train.iloc[:,2:],data_lr_train['y']

# 7. 岭回归
lr = Ridge()
lr.fit(train_x,train_y)

# 8. lr逐步迭代预测函数(将上一步预测结果放本次预测的滞后项特征上,迭代预测)
def forecast(estimator,data_test=data_lr_test):
    pre_lag = data_lr_train['y'][-maxlag:]  # 测试集初始滞后项(取训练集后p项)
    
    res = []   # 存储逐步预测结果
    for i in range(data_lr_test.shape[0]):
        test_x = np.r_[data_lr_test.iloc[i,2:],pre_lag].reshape(1,-1)  
        new_y = estimator.predict(test_x)
        pre_lag = np.r_[pre_lag,new_y][-maxlag:]
        
        res.append(new_y[0])
    
    return res
    
res = forecast(lr,data_lr_test)

# 9. 结果可视化
plt.figure(figsize=(20,5))
plt.plot(data_train['Date'],data_train['number_sold'],label='训练观测值')
plt.plot(data_test['Date'],data_test['number_sold'],label='测试观测值')
plt.plot(data_test['Date'],res,label='测试预估值')
plt.title('按照ar自回归模型参数执行岭回归')
plt.legend()

时间序列预测各类算法探究上篇_第8张图片

如图:lr模型复现效果几乎与statsmodel中ar自回归预测结果一致。

3.2.2 Xgboost
# 1. xgboost 使用特征与lr保持一致
params = {           
          'eta': 0.3,
          'gamma': 0,
          'max_depth': 6,
          'lambda':1,    # L2正则
          
          'objective':'reg:squarederror',
          'eval_metric':'mae'
    
         }

dtrain = xgb.DMatrix(data=train_x,label=train_y)
xgb_model = xgb.train(params=params,dtrain=dtrain,num_boost_round=20)

# 2. 逐步迭代预测函数(将上一步预测结果放本次预测的滞后项特征上,迭代预测)
def forecast(estimator,data_test=data_test):
    pre_lag = data_lr_train['y'][-maxlag:]  # 测试集初始滞后项(取训练集后p项)
    
    res = []   # 存储逐步预测结果
    for i in range(data_lr_test.shape[0]):
        test_x = np.r_[data_lr_test.iloc[i,2:],pre_lag].reshape(1,-1)  
        new_y = estimator.predict(xgb.DMatrix(test_x,feature_names=list(data_lr_test.columns[2:])+[f'L{i}' for i in range(1,pre_lag.shape[0]+1)]))
        pre_lag = np.r_[pre_lag,new_y][-maxlag:]
        
        res.append(new_y[0])
    
    return res
    
res = forecast(xgb_model,data_test)


# 3. 结果可视化
fg = plt.figure(figsize=(20,5))
plt.plot(data_train['Date'],data_train['number_sold'],label='训练观测值')
plt.plot(data_test['Date'],data_test['number_sold'],label='测试观测值')
plt.plot(data_test['Date'],res,label='xgbt预估值')
plt.plot(data_test['Date'],[max(res) for i in res],label='预估最大值')
plt.title('按照ar自回归模型参数执行xgbt回归')
plt.legend()

时间序列预测各类算法探究上篇_第9张图片

如图:xgbt 效果没有lr模型好,无法拟合趋势增加项(纯个人理解:lr 模型有带系数的trend项,能随着日期的增加逐渐变大,但xgbt树模型的分数,是对叶子节点上样本求均值,而训练集以时间前后切分,其中没有未来越来越大的观测值,模型就无法拟合更大值)

参考1: https://baijiahao.baidu.com/s?id=1708325528423248703&wfr=spider&for=pc

参考2: https://www.xjx100.cn/news/555912.html?action=onClick

你可能感兴趣的:(时间序列,算法,时序,arima,线性回归,xgboost)