全文共25000余字,预计阅读时间约50~83.33分钟 | 满满干货,建议收藏!
在我们深入了解ARIMA模型之前,我们首先需要对其构成部分——AR模型和MA模型有一定的了解。在前两篇文章中,我已经对这两种模型进行了详细的讨论。如果你还没有阅读这两篇文章,强烈建议你先阅读它们。
时间序列模型(二):AR模型
时间序列模型(三):MA模型
在对AR模型和MA模型有了相当深入的理解基础上,接下来我们将介绍ARIMA模型,这是一种将AR和MA模型结合起来的模型,用于处理更复杂的时间序列问题。
首先,我们要了解为什么需要把AR模型和MA模型合并为ARIMA模型。这就需要我们从这两种模型的优缺点出发。
AR模型,即自回归模型,其优势是对于具有较长历史趋势的数据,AR模型可以捕获这些趋势,并据此进行预测。但是AR模型不能很好地处理某些类型的时间序列数据,例如那些有临时、突发的变化或者噪声较大的数据。AR模型相信“历史决定未来”,因此很大程度上忽略了现实情况的复杂性、也忽略了真正影响标签的因子带来的不可预料的影响。
相反地,MA模型,即移动平均模型,可以更好地处理那些有临时、突发的变化或者噪声较大的时间序列数据。但是对于具有较长历史趋势的数据,MA模型可能无法像AR模型那样捕捉到这些趋势。MA模型相信“时间序列是相对稳定的,时间序列的波动是由偶然因素影响决定的”,但现实中的时间序列很难一直维持“稳定”这一假设。
基于以上两个模型的优缺点,我们引入了ARIMA模型,这是一种结合了AR模型和MA模型优点的模型,可以处理更复杂的时间序列问题。
ARIMA模型全称为自回归差分移动平均模型(Autoregressive Integrated Moving Average Model)。ARIMA模型主要由三部分构成,分别为自回归模型(AR)、差分过程(I)和移动平均模型(MA)。
ARIMA模型的基本思想是利用数据本身的历史信息来预测未来。一个时间点上的标签值既受过去一段时间内的标签值影响,也受过去一段时间内的偶然事件的影响,这就是说,ARIMA模型假设:标签值是围绕着时间的大趋势而波动的,其中趋势是受历史标签影响构成的,波动是受一段时间内的偶然事件影响构成的,且大趋势本身不一定是稳定的
简而言之,ARIMA模型就是试图通过数据的自相关性和差分的方式,提取出隐藏在数据背后的时间序列模式,然后用这些模式来预测未来的数据。其中:
结合这三部分,ARIMA模型既可以捕捉到数据的趋势变化,又可以处理那些有临时、突发的变化或者噪声较大的数据。所以,ARIMA模型在很多时间序列预测问题中都有很好的表现。所以AIIMA的数学表达式如下:
先回顾一下AR和MA模型的数学表达式:
A R : Y t = c + φ 1 Y t − 1 + φ 2 Y t − 2 + . . . + φ p Y t − p + ξ t AR:Y_t = c + φ_1Y_{t-1} + φ_2Y_{t-2} + ... + φ_pY_{t-p} + \xi_t AR:Yt=c+φ1Yt−1+φ2Yt−2+...+φpYt−p+ξt
M A : Y t = μ + ϵ t + θ 1 ϵ t − 1 + θ 2 ϵ t − 2 + ⋯ + θ q ϵ t − q MA:Y_t = \mu + \epsilon_t + \theta_1\epsilon_{t-1} + \theta_2\epsilon_{t-2} + \cdots + \theta_q\epsilon_{t-q} MA:Yt=μ+ϵt+θ1ϵt−1+θ2ϵt−2+⋯+θqϵt−q
如果我们暂时不考虑差分(即假设d=0),那么ARIMA模型可以被看作是AR模型和MA模型的直接结合,形式上看,ARIMA模型的公式可以表示为:
Y t = c + φ 1 Y t − 1 + φ 2 Y t − 2 + . . . + φ p Y t − p + θ 1 ϵ t − 1 + θ 2 ϵ t − 2 + . . . + θ q ϵ t − q + ϵ t Y_t = c + φ_1Y_{t-1} + φ_2Y_{t-2} + ... + φ_pY_{t-p} + θ_1\epsilon_{t-1} + θ_2\epsilon_{t-2} + ... + θ_q\epsilon_{t-q} + \epsilon_t Yt=c+φ1Yt−1+φ2Yt−2+...+φpYt−p+θ1ϵt−1+θ2ϵt−2+...+θqϵt−q+ϵt
在这个公式中:
这个公式基本上是将AR模型和MA模型的公式组合在一起:
值得注意的是,MA模型中代表长期趋势的均值 μ \mu μ并不存在于ARIMA模型的公式当中,因为ARIMA模型中“预测长期趋势”这部分功能由AR模型来执行,因此AR模型替代了原本的 μ \mu μ。在ARIMA模型中,c可以为0。
另外,这个公式的基础是假设我们正在处理的时间序列是平稳的,这样我们可以直接应用AR和MA模型。如果时间序列是非平稳的,那么我们就需要考虑ARIMA模型中的I部分,也就是进行差分处理。
上述模型被称之为ARIMA(p,d,q)模型,其中p和q的含义与原始MA、AR模型中完全一致,且p和q可以被设置为不同的数值,而d是ARIMA模型需要的差分的阶数,下面要重点讲解的参数,请继续往下看。
差分是一种数学操作,用于计算一组数值序列中相邻数据点的差值。在时间序列分析中,差分常用于将非平稳序列转化为平稳序列,也就是减小或消除时间序列的趋势和季节性变化。
当我们对一个序列进行差分运算,就意味着我们会计算该序列中的不同观测值之间的差异
简单地说,如果我们有一个时间序列 Y t {Y_t} Yt,那么该序列的一阶差分就可以定义为:
Δ Y t = Y t − Y t − 1 \Delta Y_t = Y_t - Y_{t-1} ΔYt=Yt−Yt−1
这样,我们得到一个新的时间序列,其每一个值都是原时间序列中相邻两个值的差。
让我们以一个简单的例子来具体理解理解差分操作:
假设我们有以下一组时间序列数据:
Y = 4 , 8 , 6 , 5 , 3 , 4 Y = {4, 8, 6, 5, 3, 4} Y=4,8,6,5,3,4
我们可以看到,这个序列的长度是6。现在,我们希望对这个序列进行一阶差分。
第一步,我们计算第二个数据点和第一个数据点的差,也就是8-4=4。
第二步,我们计算第三个数据点和第二个数据点的差,也就是6-8=-2。
依次类推,我们计算出所有相邻数据点之间的差值,得到一个新的序列:
Δ Y = 4 , − 2 , − 1 , − 2 , 1 \Delta Y = {4, -2, -1, -2, 1} ΔY=4,−2,−1,−2,1
我们可以看到,差分后的序列比原序列短了一位,因为差分操作实际上计算的是原序列中的相邻数据点之间的差值。同时,差分后的序列相比于原序列,其趋势和季节性变化都得到了一定程度的消除。通常进行一次差分运算,原始的序列会变短1个单位。
在实际进行差分运算时,我们可以改变差分运算的两个相关因子来执行不同的差分:一个是差分的阶数(order),另一个是差分的滞后(lag)。
在上一节,我们介绍了一阶差分。然而,实际上,差分的阶数可以是任何正整数。差分的阶数就是我们需要进行多少次差分操作才能得到一个平稳序列。
具体地说,二阶差分就是对一阶差分后的序列再次进行差分。如果我们有一个时间序列 Y t {Y_t} Yt,那么该序列的二阶差分就可以定义为:
Δ 2 Y t = Δ ( Y t − Y t − 1 ) = ( Y t − Y t − 1 ) − ( Y t − 1 − Y t − 2 ) = Y t − 2 Y t − 1 + Y t − 2 \Delta^2 Y_t = \Delta(Y_t - Y_{t-1}) = (Y_t - Y_{t-1}) - (Y_{t-1} - Y_{t-2}) = Y_t - 2Y_{t-1} + Y_{t-2} Δ2Yt=Δ(Yt−Yt−1)=(Yt−Yt−1)−(Yt−1−Yt−2)=Yt−2Yt−1+Yt−2
这样,我们得到一个新的时间序列,其每一个值都是原时间序列中相邻两个值的差的差。
让我们以一个简单的例子来具体理解高阶差分操作:
假设我们有以下一组时间序列数据:
Y = 4 , 8 , 6 , 5 , 3 , 4 Y = {4, 8, 6, 5, 3, 4} Y=4,8,6,5,3,4
首先,我们进行一阶差分,就像我们之前讲解的,具体的计算步骤如下:
所以,一阶差分的结果如下:
Δ Y = 4 , − 2 , − 1 , − 2 , 1 \Delta Y = {4, -2, -1, -2, 1} ΔY=4,−2,−1,−2,1
然后,我们对这个一阶差分序列进行二阶差分。同样,我们从头开始计算相邻数据点的差值:
所以,二阶差分的结果如下:
Δ 2 Y = − 6 , 1 , − 1 , 3 \Delta^2 Y = {-6, 1, -1, 3} Δ2Y=−6,1,−1,3
我们可以看到,二阶差分后的序列比一阶差分的序列又短了一位。实际上是需要对序列Y进行两次一阶差分,
因此,n阶差分就是在原始数据基础上进行n次一阶差分。在现实中,我们使用的高阶差分一般阶数不会太高。在ARIMA模型中,超参数 d d d最常见的取值是0、1、2这些很小的数字。
在时间序列分析中,"滞后"是一个非常重要的概念。滞后实际上是描述了时间序列数据点之间的时间差。举个例子,对于一个月度数据的时间序列, Y t − 1 Y_{t-1} Yt−1 就代表了 Y t Y_t Yt的一个月的滞后。
差分的滞后(lag)与差分的阶数完全不同。正常的一阶差分是滞后为1的差分(lag-1 Differences),这代表在差分运算中,我们让相邻的两个观测值相减,即让间隔为(lag-1)的两个观测值相减。因此,当滞后为2时,则代表我们需要让相隔1个值的两个观测值相减。
在ARIMA模型中,我们经常需要计算滞后d期的时间序列数据。这就意味着我们需要查找在t时刻前d个时间单位的数据。
让我们通过一个具体的例子来了解如何进行滞后操作。
假设我们有以下一组时间序列数据:
Y = 4 , 8 , 6 , 5 , 3 , 4 Y = {4, 8, 6, 5, 3, 4} Y=4,8,6,5,3,4
如果我们想要计算这个时间序列的一阶滞后序列,我们只需要将原序列向右移动一个单位,然后删除掉移动后超出的数据点,具体操作如下:
如果我们想要计算二阶滞后序列,我们可以按照同样的方式进行操作:
通过以上的操作,我们可以得到任意阶的滞后序列。
滞后差分(Lag Differences)是在进行差分操作时,不是用相邻的观测值进行相减,而是用相隔一定数量(即滞后数量)的观测值进行相减。这种操作通常在时间序列具有周期性的情况下非常有用,例如,当我们处理的数据随季节有规律地波动或者随一周的时间有规律地波动时。
让我们以一个简单的例子来具体理解滞后差分的操作:
假设我们有一个时间序列:
X = [ 5 , 4 , 6 , 7 , 9 , 12 ] X = [5, 4, 6, 7, 9, 12] X=[5,4,6,7,9,12]
现在,我们想要计算这个时间序列的2步滞后差分(lag-2 Differences)序列。首先,我们让相隔1个值的两个观测值相减,具体操作如下:
X l a g 2 = [ 1 , 3 , 3 , 5 ] X_{lag_2} = [1, 3, 3 ,5] Xlag2=[1,3,3,5]
通过这个例子,我们可以看出滞后差分的操作就是令序列中索引更大的值减去与其相隔(lag-1)个样本的索引更小的值。在实际操作中,我们可以根据数据的特性,选择合适的滞后阶数,来对数据进行滞后差分操作。
带滞后的差分也叫做多步差分,例如,滞后为2的差分就叫做2步差分。相比起平时不怎么使用的高阶差分,多步差分应用非常广泛。在时间序列中,标签往往具备一定的周期性:例如,标签可能随季节有规律地波动(比如在夏季标签值高、在冬季标签值较低等),也可能随一周的时间有规律地波动(比如在周末较高、在工作日较低等)
在时间序列中,标签往往具备一定的周期性:例如,标签可能随季节有规律地波动(比如在夏季标签值高、在冬季标签值较低等),也可能随一周的时间有规律地波动(比如在周末较高、在工作日较低等)。这种波动可以通过滞后差分来消除,我们生成一个人造的不平稳时间序列,并通过差分使其平稳。我们将利用Numpy和Pandas库生成这个序列,然后用同样的步骤进行检验和可视化。代码如下:
# 导入必要的库
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from statsmodels.tsa.stattools import adfuller
# 创建一个函数来检查数据的平稳性
def test_stationarity(timeseries):
# 执行Dickey-Fuller测试
print('Results of Dickey-Fuller Test:')
dftest = adfuller(timeseries, autolag='AIC')
dfoutput = pd.Series(dftest[0:4], index=['Test Statistic', 'p-value', '#Lags Used', 'Number of Observations Used'])
for key, value in dftest[4].items():
dfoutput['Critical Value (%s)' % key] = value
print(dfoutput)
# 生成不平稳的时间序列
np.random.seed(0)
n = 100
x = np.cumsum(np.random.randn(n))
# 把它转换成Pandas的DataFrame格式
df = pd.DataFrame(x, columns=['value'])
# 检查原始数据的平稳性
test_stationarity(df['value'])
# 进行一阶差分
df['first_difference'] = df['value'] - df['value'].shift(1)
# 检查一阶差分后的数据的平稳性
test_stationarity(df['first_difference'].dropna())
# 进行二阶差分
df['second_difference'] = df['first_difference'] - df['first_difference'].shift(1)
# 检查二阶差分后的数据的平稳性
test_stationarity(df['second_difference'].dropna())
# 可视化原始数据和差分后的数据
plt.figure(figsize=(12, 6))
plt.plot(df['value'], label='Original')
plt.plot(df['first_difference'], label='1st Order Difference')
plt.plot(df['second_difference'], label='2nd Order Difference')
plt.legend(loc='best')
plt.title('Original and Differenced Time Series')
plt.show()
这段代码首先创建了一个不平稳的时间序列。然后,它对原始数据、一阶差分数据和二阶差分数据进行了平稳性检验。最后,它画出了原始数据以及一阶和二阶差分数据的图形。
在你运行这段代码之后,你应该会看到,原始数据不平稳,一阶差分后的数据仍然不完全平稳,而二阶差分后的数据就已经变得平稳了。
从图像上可以看出,已经成功展示了如何通过多步差分将一个非平稳时间序列转换为平稳时间序列。
我们更具体的分析,执行上述代码后,输出如下:
Results of Dickey-Fuller Test:
Test Statistic -1.132038
p-value 0.702128
#Lags Used 0.000000
Number of Observations Used 99.000000
Critical Value (1%) -3.498198
Critical Value (5%) -2.891208
Critical Value (10%) -2.582596
dtype: float64
Results of Dickey-Fuller Test:
Test Statistic -9.158402e+00
p-value 2.572287e-15
#Lags Used 0.000000e+00
Number of Observations Used 9.800000e+01
Critical Value (1%) -3.498910e+00
Critical Value (5%) -2.891516e+00
Critical Value (10%) -2.582760e+00
dtype: float64
Results of Dickey-Fuller Test:
Test Statistic -5.459820
p-value 0.000003
#Lags Used 11.000000
Number of Observations Used 86.000000
Critical Value (1%) -3.508783
Critical Value (5%) -2.895784
Critical Value (10%) -2.585038
dtype: float64
原始数据:Dickey-Fuller检验的p值为0.702128,这个值大于常用的显著性水平(例如0.05或0.01)。这意味着我们无法拒绝原假设(时间序列是非平稳的)。因此,我们可以确认原始数据是非平稳的。
一阶差分数据:一阶差分后,p值为2.572287e-15(接近于0),远小于0.05或0.01,我们可以拒绝原假设(时间序列是非平稳的),因此我们可以认为一阶差分后的数据是平稳的。
二阶差分数据:二阶差分后,p值为0.000003,也是远小于0.05或0.01,我们也可以拒绝原假设(时间序列是非平稳的),我们可以认为二阶差分后的数据是平稳的。
因此,从上述结果来看,一阶差分已经足够使数据平稳。这就表明了差分的作用:它可以帮助我们把一个非平稳的时间序列转换成平稳的时间序列,从而更好地进行进一步的时间序列分析或预测。
至于你的图形,可以看到:原始数据是典型的非平稳时间序列的特征。一阶差分后的数据虽然波动减小,但还是有一些非常规波动。二阶差分后的数据在0附近波动,看起来更像是一个平稳的时间序列。
差分运算可以消除数据中激烈的波动,因此可以消除时间序列中的季节性、周期性、节假日等影响。一般我们使用滞后为7的差分消除星期的影响,而使用滞后为12的差分来消除月份的影响(一般这种情况下每个样本所对应的时间单位是月),我们也常常使用滞后4来尝试消除季度所带来的影响。在统计学中,差分运算本质是一种信息提取方式,其最擅长提取的关键信息就是数据中的周期性,和其他信息提取方式一样,它会舍弃部分信息、提炼出剩下的信息供模型使用。也因此,差分最重要的意义之一就是能够让带有周期性的数据变得平稳.
上述这么多概念,是不是有点懵?没关系,我们来总结一下:
当我们谈论时间序列分析中的"差分"、"滞后差分"和"多步差分"时,我们通常是在谈论同一种基本概念,即比较一个时间序列在不同时间点的值。然而,这些术语的具体含义可能会根据上下文有所不同。让我为你详细解释一下:
差分(Differencing):这是一种预处理技术,用于使非平稳时间序列变得平稳。在时间序列中进行一阶差分,就是将每个观察值与其前一步的观察值进行比较,然后取这两个观察值之间的差异。例如,如果我们有一个时间序列 x 1 , x 2 , x 3 , . . . , x n {x1, x2, x3, ..., xn} x1,x2,x3,...,xn,那么一阶差分序列将是 x 2 − x 1 , x 3 − x 2 , . . . , x n − x n − 1 {x2 - x1, x3 - x2, ..., xn - xn-1} x2−x1,x3−x2,...,xn−xn−1。
滞后差分(Lagged Differencing):这个术语和"差分"非常相似。当我们说"滞后"时,我们是在说比较一个观察值和其"前一步"或"几步前"的观察值。因此,“滞后一阶差分"实际上就是常规的一阶差分,因为我们比较的是每个观察值与其前一步的观察值。如果我们进行的是"滞后k阶差分”,那么我们比较的是每个观察值与其k步前的观察值。
n阶差分(n-th Order Differencing):n阶差分是差分的一种更一般的形式。一阶差分是比较每个观察值与其前一步的观察值,二阶差分是对一阶差分序列进行再一次的差分(也就是比较一阶差分序列中的每个值与其前一步的值)。更一般地,n阶差分就是连续进行n次一阶差分。
多步差分(Multi-step Differencing):这个术语可能根据上下文有不同的含义。它可能指的是n阶差分(即进行多次连续的一阶差分)。也可能指的是滞后差分,比如比较每个观察值与其几步前的观察值。
在 ARIMA(p, d, q) 模型中:
A R : Y t = c + φ 1 Y t − 1 + φ 2 Y t − 2 + . . . + φ p Y t − p + ξ t AR:Y_t = c + φ_1Y_{t-1} + φ_2Y_{t-2} + ... + φ_pY_{t-p} + \xi_t AR:Yt=c+φ1Yt−1+φ2Yt−2+...+φpYt−p+ξt
其中, φ 1 , φ 2 , . . . , φ p φ_1, φ_2, ..., φ_p φ1,φ2,...,φp 是模型参数,c 是常数, ξ t \xi_t ξt 是白噪声。这个方程的阶数 p 决定了模型回溯观测值的数量。
M A : Y t = μ + ϵ t + θ 1 ϵ t − 1 + θ 2 ϵ t − 2 + ⋯ + θ q ϵ t − q MA:Y_t = \mu + \epsilon_t + \theta_1\epsilon_{t-1} + \theta_2\epsilon_{t-2} + \cdots + \theta_q\epsilon_{t-q} MA:Yt=μ+ϵt+θ1ϵt−1+θ2ϵt−2+⋯+θqϵt−q
其中, θ 1 , θ 2 , . . . , θ q \theta_1, \theta_2, ..., \theta_q θ1,θ2,...,θq 是模型参数,c 是常数, e t e_t et 是当前时期的白噪声, ϵ t − 1 , ϵ t − 2 , . . . , ϵ t − q \epsilon_{t-1}, \epsilon_{t-2}, ..., \epsilon_{t-q} ϵt−1,ϵt−2,...,ϵt−q 是过去的白噪声。这个方程的阶数 q 决定了模型回溯白噪声的数量。
因此,ARIMA 模型将自回归模型(AR)和移动平均模型(MA)结合在一起,同时加入了差分(I)这个操作。而 p, d, q 这三个参数,分别代表了模型中的自回归部分、差分阶数、以及移动平均部分。
d就是差分的阶数。差分的目标是将非平稳序列转变为平稳序列。具体的数学表达如下:
滞后运算是“向后移动一个单位”的运算,当用于时间序列时,它特指“向过去移动一个时间单位”的运算。大部分时候,滞后运算被简写为字母B(Backshift)或者字母L(Lag),我们可以对单一的时序样本或整个时间序列做滞后运算。假设有一时间序列 y t y_{t} yt,定义滞后运算(lag operator)B,它将一个时刻的观测值转化为前一时刻的观测值:
B y t = y t − 1 By_{t} = y_{t-1} Byt=yt−1
我们可以扩展这个运算符的概念,使之滞后n个时间步长。例如:
B n y t = y t − n B^{n}y_{t} = y_{t-n} Bnyt=yt−n
此外,我们可以利用滞后运算来表示一阶差分和n阶差分。一阶差分可以看做是相邻的标签值之间的差,它可以表示为:
Δ y t = y t − y t − 1 = y t − B y t = ( 1 − B ) y t \Delta y_{t} = y_{t} - y_{t-1} = y_{t} - By_{t} = (1-B)y_{t} Δyt=yt−yt−1=yt−Byt=(1−B)yt
类似的,n阶差分就是相隔n-1个标签值进行相减:
Δ n y t = y t − y t − n = y t − B n y t = ( 1 − B n ) y t \Delta^{n} y_{t} = y_{t} - y_{t-n} = y_{t} - B^{n}y_{t} = (1-B^{n})y_{t} Δnyt=yt−yt−n=yt−Bnyt=(1−Bn)yt
这个式子告诉我们,如果我们想对一组数据进行n阶差分,那么我们就可以使用滞后运算。
同时,我们还可以利用滞后运算来表示高阶差分。如果我们对时间序列进行两次一阶差分,那么我们就得到了二阶差分。二阶差分可以表述为:
Δ 2 y t = Δ ( Δ y t ) = ( y t − y t − 1 ) − ( y t − 1 − y t − 2 ) = y t − 2 y t − 1 + y t − 2 = ( 1 − 2 B + B 2 ) y t = ( 1 − B ) 2 y t \Delta^{2}y_{t} = \Delta(\Delta y_{t}) = (y_{t} - y_{t-1}) - (y_{t-1} - y_{t-2}) = y_{t} - 2y_{t-1} + y_{t-2} = (1-2B + B^{2})y_{t} = (1-B)^{2}y_{t} Δ2yt=Δ(Δyt)=(yt−yt−1)−(yt−1−yt−2)=yt−2yt−1+yt−2=(1−2B+B2)yt=(1−B)2yt
这个式子告诉我们,如果我们想对一组数据进行二阶差分,那么我们可以直接对原始数据应用滞后运算符。
以此类推,d阶差分可以被表示为:
d _ o r d e r _ y = ( 1 − B ) d y t d\_order\_y = (1-B)^dy_t d_order_y=(1−B)dyt
一般来说,ARIMA模型中的d代表的就是这样的差分阶数。当我们在ARIMA模型中设定d等于一个特定的数值时,我们实际上是在告诉模型,我们应用了多少次滞后运算(也就是进行了多少次差分)来使数据变得平稳。这就是为什么在进行ARIMA模型拟合前,我们需要先通过画图或者ADF检验等方式,确定最小的d使得数据平稳。在确定了d之后,我们就可以将d阶差分后的序列代入模型进行拟合。
上面的推导,可以帮助我们理解ARIMA(p, d, q)中的d是如何通过滞后运算与差分建立起来的关系,以及它是如何影响我们的模型的。
在实际使用中,我们经常将多步差分和高阶差分混用,最典型的就是在ARIMA模型建模之前:一般我们会先使用多步差分令数据满足ARIMA模型的基础建模条件,再在ARIMA模型中使用低阶的差分帮助模型更好地建模。例如,先对数据进行12步差分、再在模型中进行1阶差分,这样可以令数据变得平稳的同时、又提取出数据中的周期性,极大地提升模型对数据的拟合精度。
当我们说一个时间序列是平稳的,基本上意味着其统计特性(如均值,方差)在时间上是常数或不会随时间变化。平稳性是ARIMA模型所假设的关键特性,因为模型的预测能力在很大程度上取决于这个假设。
我们生成1000个数据点的平稳和非平稳时间序列。在非平稳序列中,我们增加了一个正弦项,以产生更明显的波动。这样,就可以看到一个具有明显周期性和变化幅度的非平稳序列
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
# 设置随机种子以确保结果可重复
np.random.seed(0)
# 生成平稳时间序列
stationary = np.random.normal(loc=0, scale=1.0, size=1000)
s_ts = pd.Series(stationary)
s_ts.plot()
plt.title('Stationary Time Series')
plt.show()
# 生成非平稳时间序列
non_stationary = np.cumsum(np.random.normal(loc=0, scale=2.0, size=1000)) + 10 * np.sin(np.linspace(-10, 10, 1000))
ns_ts = pd.Series(non_stationary)
ns_ts.plot()
plt.title('Non-Stationary Time Series')
plt.show()
在第一幅图中,我们看到的序列有一个明显的周期性波动模式。这个序列的均值和方差都在随时间变化。均值在随时间变化是因为我们在生成这个序列时,将随机数进行了累加;方差在随时间变化是因为我们增加了一个正弦项,使得序列在不同的时间点具有不同的波动幅度。这些性质都违反了平稳时间序列的定义,所以我们称这个序列为非平稳时间序列。
在第二幅图中,我们可以看到序列在0附近随机波动。这个序列的均值和方差都是常数。均值是因为我们在生成这个序列时,从均值为0的正态分布中抽取了随机数;方差也是常数,因为这些随机数是独立同分布的。这些性质都满足平稳时间序列的定义,所以我们称这个序列为平稳时间序列。
在时间序列分析中,我们通常需要将非平稳时间序列转化为平稳时间序列,因为许多时间序列模型(如AR、MA和ARIMA模型)都假设输入的数据是平稳的。这种转化可以通过差分或其他预处理方法来实现。
ACF (Auto-Correlation Function)和PACF (Partial Auto-Correlation Function)是时间序列分析中的两个重要工具,它们可以用来检验一个时间序列是否是平稳的,以及帮助确定ARIMA模型的参数。
在深入理解ACF之前,我们先来理解一下"相关性"的基本概念。一般来说,"相关性"用于衡量两个变量之间的线性关系。对于时间序列数据,这两个变量通常是在不同时间点的观测值。例如,假设我们有以下一组观测值:[3, 5, 4, 6, 7, 8, 7, 6, 5, 4, 3],我们可能会问,第t个观测值与第t-1个观测值有多大的相关性?这时,我们就需要用到自相关系数(ACF)来衡量。
在实际应用中,ACF通常被定义为当前时间点上的观测值与历史时间点观测值之间的相关性。这种相关性可以用多种方法来衡量,其中最常用的是皮尔逊相关系数。
这是一个相对宽泛的定义,而在时间序列分析中,ACF有着更为严格的定义。对于任意的滞后(lag)k,我们都计算出在时间t和时间t+k的数据点之间的协方差,然后除以该时间序列的方差。这样得到的结果反映了时间序列自身的相关性。
数学上,自相关函数(ACF)的定义如下:
如果我们有一个时间序列 {X_t},那么对于任意的滞后(lag)k,自相关函数 ρ(k) 可以表示为:
ρ ( k ) = C o v ( X t , X t + k ) / V a r ( X t ) ρ(k) = Cov(X_t, X_{t+k}) / Var(X_t) ρ(k)=Cov(Xt,Xt+k)/Var(Xt)
其中, C o v ( X t , X t + k ) Cov(X_t, X_{t+k}) Cov(Xt,Xt+k) 是时间点 t 和时间点 t+k 的观测值的协方差, V a r ( X t ) Var(X_t) Var(Xt)是时间序列 X t {X_t} Xt 的方差。
ACF 的取值范围是 -1 到 1。当 ACF 接近 1 时,表示两个时间点的观测值高度正相关;当 ACF 接近 -1 时,表示两个时间点的观测值高度负相关;当 ACF 接近 0 时,表示两个时间点的观测值之间的相关性较弱。
通过计算不同滞后值下的 ACF,我们可以得到一个关于滞后的函数,这就是自相关函数。我们通常使用自相关图(ACF 图)来直观地表示这个函数,这将在后面的内容中详细介绍。
在理解PACF之前,我们需要先理解什么是"直接相关性"。直接相关性是指一个变量与另一个变量之间的相关性,而不考虑其他变量的影响。例如,假设我们有以下一组观测值:[3, 5, 4, 6, 7, 8, 7, 6, 5, 4, 3],我们可能会问,第t个观测值与第t-2个观测值之间有多大的直接相关性,而这个直接相关性并没有考虑第t-1个观测值的影响。这时,我们就需要用到偏自相关系数(PACF)来衡量。
在时间序列分析中,偏自相关函数(PACF)衡量的是在其他更早期的滞后(lag)观测值已经被考虑后,当前时间点的观测值与某个滞后观测值之间的"直接相关性"。换句话说,PACF表示的是两个观测值之间的相关性,去掉其他滞后观测值的影响。
数学上,偏自相关函数(PACF)的定义如下:
如果我们有一个时间序列 {X_t},那么对于任意的滞后(lag)k,偏自相关函数 φ(k) 可以表示为:
φ ( k ) = C o v ( X t − E [ X t ∣ X t − 1 , . . . , X t − k + 1 ] , X t − k − E [ X t − k ∣ X t − k + 1 , . . . , X t − 1 ] ) / V a r ( X t ) φ(k) = Cov(X_t - E[X_t | X_{t-1},...,X_{t-k+1}], X_{t-k} - E[X_{t-k} | X_{t-k+1},...,X_{t-1}]) / Var(X_t) φ(k)=Cov(Xt−E[Xt∣Xt−1,...,Xt−k+1],Xt−k−E[Xt−k∣Xt−k+1,...,Xt−1])/Var(Xt)
其中,Cov表示协方差,E表示期望,也就是平均值,Var表示方差。我们可以看到,PACF的计算过程实际上是先去掉其他更早期的滞后观测值的影响,然后再计算相关性。
PACF的取值范围也是 -1 到 1。当 PACF 接近 1 时,表示两个时间点的观测值高度正相关;当 PACF 接近 -1 时,表示两个时间点的观测值高度负相关;当 PACF 接近 0 时,表示两个时间点的观测值之间的直接相关性较弱。
通过计算不同滞后值下的 PACF,我们可以得到一个关于滞后的函数,这就是偏自相关函数。我们通常使用偏自相关图(PACF 图)来直观地表示这个函数,这将在后面的内容中详细介绍。
对于自相关系数(ACF)和偏自相关系数(PACF),一开始可能会感觉有些难以理解。以下是一个更加详细的例子,希望能帮助你更好地理解。
假设我们有以下一组观测值:X = [3, 5, 4, 6, 7, 8, 7, 6, 5, 4, 3],使用自相关系数(ACF)的计算第t个观测值 X t X_t Xt 与第t-2个观测值 X t − 2 X_{t-2} Xt−2 的自相关系数。这里,我们只需要关注当前观测值和滞后2的观测值,不需要考虑滞后1的观测值。所以,我们可以使用以下公式计算ACF:
A C F ( 2 ) = C o v ( X t , X t − 2 ) / s q r t ( V a r ( X t ) ∗ V a r ( X t − 2 ) ) ACF(2) = Cov(X_t, X_{t-2}) / sqrt(Var(X_t) * Var(X_{t-2})) ACF(2)=Cov(Xt,Xt−2)/sqrt(Var(Xt)∗Var(Xt−2))
那如果使用偏自相关系数PACF的计算第t个观测值 X t X_t Xt 与第t-2个观测值 X t − 2 X_{t-2} Xt−2 的偏自相关系数。与自相关系数的计算不同,这里我们需要考虑其他更早期的滞后观测值的影响。所以,我们需要使用以下公式计算PACF:
P A C F ( 2 ) = C o v ( X t − E [ X t ∣ X t − 1 ] , X t − 2 − E [ X t − 2 ∣ X t − 1 ] ) / s q r t ( V a r ( X t ) ∗ V a r ( X t − 2 ) ) PACF(2) = Cov(X_t - E[X_t | X_{t-1}], X_{t-2} - E[X_{t-2} | X_{t-1}]) / sqrt(Var(X_t) * Var(X_{t-2})) PACF(2)=Cov(Xt−E[Xt∣Xt−1],Xt−2−E[Xt−2∣Xt−1])/sqrt(Var(Xt)∗Var(Xt−2))
其中,Cov表示协方差,E表示期望,也就是平均值,Var表示方差。我们首先去掉 X t X_t Xt和 X t − 2 X_{t-2} Xt−2对 X t − 1 X_{t-1} Xt−1的条件期望,然后再计算剩下的部分的协方差,最后除以 X t X_t Xt和 X t − 2 X_{t-2} Xt−2的方差的乘积的平方根。
可以看到,偏自相关系数的计算过程要复杂一些,因为我们需要考虑其他更早期的滞后观测值的影响。但这也使得偏自相关系数能够更好地衡量当前观测值和滞后观测值之间的"直接相关性"。
让我们换一种更通俗的方式来理解ACF和PACF。
假设我们在观察一个湖泊的水温。假设我们每天都在固定的时间测量水温,并记录下来。
自相关系数(ACF): 自相关就好比我们在考虑"今天的水温是否会受到昨天水温的影响?"如果昨天的水温很高,那么今天的水温可能也会偏高。这种相互影响可以用自相关系数来衡量。换句话说,自相关系数可以帮助我们理解在时间序列中,一个时间点的值如何影响另一个时间点的值。
偏自相关系数(PACF): 偏自相关在这个例子中,可以被理解为"在已知昨天水温的情况下,今天的水温还会受到前天水温的影响吗?“也就是说,我们在计算今天和前天的水温关系时,已经考虑并剔除了昨天水温的影响。这种关系被称为"偏自相关”。
用这种方式理解,我们可以更直观地看到ACF和PACF的区别。ACF是直接考虑相邻两天的水温的关系,而PACF是在已知昨天水温的情况下,考虑今天和前天的水温的关系。
在实际应用中,我们通常使用相关的统计软件来计算ACF和PACF,而不需要手动计算。所以理解就好。
ACF和PACF的取值范围都是[-1,1],其中1代表两个序列完全正相关,-1代表两个序列完全负相关,0代表两个序列不相关。
我们生成一个AR(1)模型的时间序列数据,然后使用statsmodels库中的plot_acf和plot_pacf函数来绘制其自相关函数(ACF)和部分自相关函数(PACF)的图像。以下是Python代码:
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
from statsmodels.graphics.tsaplots import plot_acf, plot_pacf
import statsmodels.api as sm
# 设置随机种子以确保结果可重复
np.random.seed(0)
# 生成AR(1)时间序列数据
ar = np.array([1, -0.5]) # 我们将使用的AR模型的参数
ma = np.array([1]) # 这是MA模型的参数,在这个例子中我们不需要它
n = int(1000) # 我们将生成的数据点的数量
arma_process = sm.tsa.ArmaProcess(ar, ma)
y = arma_process.generate_sample(nsample=n)
# 绘制ACF图像
plot_acf(y, lags=20)
plt.title('ACF of AR(1) Time Series')
plt.show()
# 绘制PACF图像
plot_pacf(y, lags=20)
plt.title('PACF of AR(1) Time Series')
plt.show()
在这个代码中,我们首先设置了随机种子以确保结果可重复,然后定义了AR(1)模型的参数和我们将生成的数据点的数量。接下来,我们使用statsmodels.tsa.ArmaProcess对象和其generate_sample方法来生成AR(1)时间序列数据。最后,我们使用plot_acf和plot_pacf函数来绘制ACF和PACF图像。
ACF图和PACF图的横坐标相同,都是不同的滞后程度,纵坐标是当前滞后程度下序列的ACF和PACF值。背景为蓝色的区域代表着95%或99%的置信区间,当ACF/PACF值在蓝色区域之外时,我们就认为当前滞后程度下的ACF/PACF是统计上显著的值,即这个滞后程度下的序列之间的相关性很大程度上是信任的、不是巧合。需要注意的是,当滞后为0时,ACF和PACF值必然为1,因为一个序列与自己始终完全相关,因此ACF和PACF图上有意义的值是从滞后为1的值开始看
详细地解释一下这个过程:
AR(1)模型是一种自回归模型,它的当前值只依赖于前一步的值。所以,对于一个AR(1)模型,我们有:
X [ t ] = c + φ X [ t − 1 ] + ε [ t ] X[t] = c + φX[t-1] + ε[t] X[t]=c+φX[t−1]+ε[t]
其中X[t]是当前时间点的值,X[t-1]是前一时间点的值,c是常数,φ是自回归系数,ε[t]是噪声项。
ACF衡量的是时间序列与其自身滞后版本之间的相关性。对于AR(1)模型,其ACF应在滞后1时有一个峰值,然后逐渐衰减。原因是,当滞后1时,我们实际上在比较X[t]和X[t-1],它们是直接相关的,所以有一个峰值。而当滞后增加时,比如滞后2时,我们在比较X[t]和X[t-2],虽然X[t]和X[t-2]之间存在间接的关联(通过X[t-1]),但是这种关联会随着滞后的增加而衰减。
部分自相关函数(PACF):PACF衡量的是时间序列与其滞后版本之间的相关性,但是要剔除中间滞后项的影响。对于AR(1)模型,其PACF应在滞后1时有一个峰值,然后突然降到0。原因是,当滞后1时,我们实际上在比较X[t]和X[t-1],它们是直接相关的,所以有一个峰值。而当滞后增加时,比如滞后2时,我们在比较X[t]和X[t-2],尽管它们之间存在间接的关联,但是这种关联被X[t-1]的影响所剔除,所以PACF在滞后2以后的值应接近于0。
因此,ACF和PACF的图像是反映AR(1)模型结构的重要工具。通过它们,我们可以看出时间序列的当前值主要依赖于前一步的值,而与更早的历史值的关联性较弱。
回顾一下:ARIMA模型的公式可以表示为:
Y t = c + φ 1 Y t − 1 + φ 2 Y t − 2 + . . . + φ p Y t − p + θ 1 ϵ t − 1 + θ 2 ϵ t − 2 + . . . + θ q ϵ t − q + ϵ t Y_t = c + φ_1Y_{t-1} + φ_2Y_{t-2} + ... + φ_pY_{t-p} + θ_1\epsilon_{t-1} + θ_2\epsilon_{t-2} + ... + θ_q\epsilon_{t-q} + \epsilon_t Yt=c+φ1Yt−1+φ2Yt−2+...+φpYt−p+θ1ϵt−1+θ2ϵt−2+...+θqϵt−q+ϵt
上面我们已经提到过了,ARIMA模型中的三个参数p、q、d分别代表的含义是:p和q分别控制ARIMA模型中自回归和移动平均的部分,而d则控制输入ARIMA模型的数据被执行的差分的阶数。我们可以这样理解:
ARIMA(p,d,q) | 模型类型 | 模型解释 |
---|---|---|
ARIMA(0,d,0) | 随机游走模型或白噪声模型 | 当d=1时,是随机游走模型;当d=0时,是白噪声模型 |
ARIMA(0,d,q) | MA模型或IMA模型 | 当d=0时,是MA(q)模型;当d≠0时,是IMA(d,q)模型 |
ARIMA(p,d,0) | AR模型或ARIMA模型 | 当d=0时,是AR模型;当d≠0时,是ARIMA(p,d,0)模型 |
ARIMA(p,d,q) | ARMA模型或ARIMA模型 | 当d=0时,是ARMA(p, q)模型;当d≠0时,是ARIMA(p,d,q)模型 |
模型解释:
对于AR模型,ACF会展现出拖尾的形式,而PACF则在p阶后突然截尾。
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from statsmodels.tsa.arima_process import ArmaProcess
from statsmodels.graphics.tsaplots import plot_acf, plot_pacf
# 参数
ar = np.array([1, -0.5, -0.4])
ma = np.array([1])
# 生成AR(2)过程
ar2_process = ArmaProcess(ar, ma)
ar2_sample = ar2_process.generate_sample(nsample=1000)
# 绘制ACF和PACF
plt.figure(figsize=(12,8))
plt.subplot(211)
plot_acf(ar2_sample, ax=plt.gca())
plt.subplot(212)
plot_pacf(ar2_sample, ax=plt.gca())
plt.show()
对任意时间序列,当ACF图像呈现拖尾、且PACF图像呈现截尾状态时,当前时间序列适用AR模型,且PACF截尾的滞后阶数就是超参数p的理想值,如图:
对于MA模型,ACF在q阶后突然截尾,而PACF则呈现拖尾的形式
import numpy as np
import matplotlib.pyplot as plt
from statsmodels.tsa.arima_process import ArmaProcess
from statsmodels.graphics.tsaplots import plot_acf, plot_pacf
# 定义MA模型的参数
ar = np.array([1])
ma = np.array([1, 0.5, 0.7])
np.random.seed(1)
# 创建ARMA模型
arma_process = ArmaProcess(ar, ma)
sample = arma_process.generate_sample(nsample=1000)
# 绘制ACF和PACF图
plt.figure(figsize=(12,8))
plt.subplot(211)
plot_acf(sample, ax=plt.gca(), lags=30)
plt.subplot(212)
plot_pacf(sample, ax=plt.gca(), lags=30)
plt.show()
对任意时间序列,当PACF图像呈现拖尾、且ACF图像呈现截尾状态时,当前时间序列适用MA模型,且ACF截尾的滞后阶数就是超参数q的理想值
对于MA模型,PACF的拖尾可能不会很明显,这主要是因为在实际的样本数据中,PACF可能会受到噪声的影响。不过,在理论上,MA(q)模型的PACF应该在q阶后展现出拖尾的特性。
如果我们有一个纯随机(也称为白噪声)序列,那么它的自相关和部分自相关应该都是接近零的。这就是所谓的“不截尾,几乎没有显著的值”的情况。我们可以用numpy来生成这样一个序列。
import numpy as np
from statsmodels.graphics.tsaplots import plot_acf, plot_pacf
import matplotlib.pyplot as plt
np.random.seed(0)
random_series = np.random.normal(size=1000)
plt.figure(figsize=(12,8))
plt.subplot(211)
plot_acf(random_series, ax=plt.gca())
plt.subplot(212)
plot_pacf(random_series, ax=plt.gca())
plt.show()
对任意时间序列,当ACF图像和PACF图像都呈现不呈现拖尾状态时,无论图像是否截尾,时间序列都适用于ARIMA模型,且此时ACF和PACF图像无法帮助我们确定p和q的具体值,但能确认p和q一定都不为0。
总的来说,ACF和PACF图像可以给我们一些关于应该使用什么类型的模型(AR、MA还是ARIMA)以及可能的p和q值的初步想法。然而,它们不能给我们绝对的答案,因为在实际数据中可能存在一些噪声和复杂性,这就需要我们使用一些模型选择准则(如AIC和BIC)来帮助我们选择最好的模型。
更准确地说,如果ACF拖尾,PACF在某阶后截尾,那么应该考虑AR模型,PACF截尾的阶数可能是AR模型的阶数。如果ACF在某阶后截尾,PACF拖尾,那么应该考虑MA模型,ACF截尾的阶数可能是MA模型的阶数。如果ACF和PACF都拖尾,那么应该考虑ARIMA模型。如果ACF和PACF图像都不呈现拖尾状态,那么时间序列可能是一个白噪声序列。
关于ARIMA模型的p和q值的选择,如果ACF和PACF都不呈现明显的拖尾或截尾,那么p和q的值可能都不为0,这种情况下,我们可以通过AIC或BIC来选择最优的p和q。
目前实践中最好的方法依然是傻瓜式尝试。在ARIMA模型当中,p和q的值往往取值不高,一般是[1,5]以内的正整数,因此实践中更常用的方法是从最小值p=1、q=1的方式开始进行尝试,不断改变p和q的取值,直到模型通过检验或达到我们需要的精度要求。
另外还有其他表现形式:
问题描述 | 诊断 | 建议解决方式 |
---|---|---|
ACF和PACF都表现出拖尾形式,并无显著截尾现象 | 这种现象极为罕见。如果确实出现,可能源于时间序列本身的非平稳性。 | 首先尝试进行差分等操作使时间序列平稳,之后再进行ACF和PACF的绘制和分析 |
ACF或PACF显示出拖尾,而另一个没有表现出截尾现象(没有任何显著的滞后) | 需要确认时间序列的平稳性。如果在保证了时间序列的平稳性后仍出现此情况,这可能表示AR或MA模型均无法很好地拟合数据。 | 尝试让序列平稳,重新绘制ACF和PACF。若依旧如此,可以在[1,3]的正整数范围内尝试设定p或q的值。如果仍无法达到良好效果,可以考虑升级为ARIMA模型。 |
ACF或PACF中出现多个显著的滞后值 | 这种情况下一般会选择第一个截断点作为p或q的值,但也可以根据实际情况选择其他显著的滞后值。 | 通常采用第一个显著滞后值确定p或q的值,但根据具体情况,其他显著的滞后值也可以被选作p或q的值。 |
ARIMA模型的性能通常可以使用均方误差(Mean Squared Error,MSE)、均方根误差(Root Mean Squared Error,RMSE)、平均绝对误差(Mean Absolute Error,MAE)等评估指标来 评估,当选择评估模型时,我们常使用模型评估质量指标赤池信息准则(Akaike Information Criterion,AIC) 和 贝叶斯信息准则(Bayesian Information Criterion,BIC),这两个准则都是用于模型选择的,它们考虑了模型的复杂度和拟合优度。AIC和BIC越小,表示模型越好。
赤池信息准则(Akaike Information Criterion, AIC)是一个评估统计模型质量的准则,它是基于信息论的观点提出的。AIC并非越小越好,而是应用于比较不同的模型,值越小说明模型越好。AIC的公式如下:
A I C = 2 k − 2 l n ( L ) AIC = 2k - 2ln(L) AIC=2k−2ln(L)
其中,k 是模型中估计参数的数量,L 是模型拟合的最大对数似然。
公式的第一部分 2 k 2k 2k表示了模型的复杂性。参数越多(模型复杂度越高),这部分的值就越大。复杂的模型可能会导致过拟合问题,因此这部分起到了一个对模型复杂度的惩罚作用。
公式的第二部分- 2 l n 2ln 2ln(L)表示了模型的拟合优度, L L L是模型的似然函数值, l n ( L ) ln(L) ln(L)就是似然函数的对数,取负数后再乘以2。模型拟合得越好, L L L的值就越大,那么 − 2 l n ( L ) -2ln(L) −2ln(L)的值就越小。
因此,AIC公式在平衡了模型的拟合优度(对数似然)和模型的复杂性(参数数量)之间的关系,寻找到既能很好地拟合数据又不会导致过拟合的模型。模型选择时,我们通常会比较不同模型的AIC值,选择AIC值最小的那个模型。
需要注意的是,AIC只能用来比较同一数据集下的不同模型,不同数据集下计算出的AIC无法进行比较。此外,AIC并不能保证选择出来的模型一定就是“真实”的模型,只能说在候选模型中,AIC值最小的模型是最优的。
贝叶斯信息准则(Bayesian Information Criterion,BIC)也是用于模型选择的一种标准,它和AIC有很大的相似性,但在处理模型复杂性时更加严格。BIC的公式如下:
B I C = l n ( n ) ∗ k − 2 l n ( L ) BIC=ln(n)∗k−2ln(L) BIC=ln(n)∗k−2ln(L)
其中,n 是观察的数据数量,k 是模型中估计参数的数量,L 是模型拟合的最大对数似然。
公式的第一部分 l n ( n ) ∗ k ln(n) * k ln(n)∗k表示了模型的复杂性。这部分与AIC的主要区别在于,BIC考虑了样本数据量n的大小。这意味着,当数据量增加时,模型复杂性的惩罚项会增加。因此,与AIC相比,BIC更倾向于选择简单的模型。
公式的第二部分 − 2 l n ( L ) -2ln(L) −2ln(L)与AIC公式中的这一部分相同,表示了模型的拟合优度。模型拟合得越好,L的值就越大,那么-2ln(L)的值就越小。
所以,BIC也是在平衡模型的拟合优度和模型的复杂性,但是对于复杂模型给予了更大的惩罚。在模型选择时,我们通常会比较不同模型的BIC值,选择BIC值最小的模型。
同样的,BIC只能用来比较同一数据集下的不同模型,不同数据集下计算出的BIC无法进行比较。BIC也不能保证选择出来的模型一定就是“真实”的模型,只能说在候选模型中,BIC值最小的模型是最优的。
这两个准则在实践中常常一起使用,并且可以为我们提供关于模型相对质量的有价值的信息。但是,这两个准则并不能保证我们选择的模型一定是最好的模型,还需要根据具体的业务需求和数据特性来进行选择和调整。
本文详细介绍了ARIMA模型及其基本概念,包括AR、I、MA三部分的含义以及如何组合形成ARIMA模型。文章解释了超参数p、d和q的含义,并展示了如何通过ACF和PACF图形来确定这些超参数。核心概念如滞后、差分、自相关函数和偏自相关函数等也被介绍,并通过实例展示了如何使用ACF和PACF图形确定ARIMA模型的超参数。此外,文章还介绍了使用AIC和BIC进行模型选择的方法,以选取最优的ARIMA模型。
最后,感谢您阅读这篇文章!如果您觉得有所收获,别忘了点赞、收藏并关注我,这是我持续创作的动力。您有任何问题或建议,都可以在评论区留言,我会尽力回答并接受您的反馈。如果您希望了解某个特定主题,也欢迎告诉我,我会乐于创作与之相关的文章。谢谢您的支持,期待与您共同成长!
期待与您在未来的学习中共同成长。