时间序列分析方法是通过对样本观测值的观察分析,将时间序列的趋势项、周期项和随机项分解出来。
其中,对于趋势性或周期性变化,常用确定性时序分析,而对于余下的随机项,可用随机时序模型拟合,属于随机时序分析。确定和随机两部分组合起来共同描述一个时间序列。
随机性时间序列模型最早由G.E.P.Box和G.M.Jenkins提出。
设 T T T是负无穷到正无穷的子集,如果 ∀ t ∈ T \forall t\in T ∀t∈T,都有一个随机变量与之对应,就称为随机变量的集合为随机过程。
当 T T T是全体整数或全体非负整数时,称相应的随机过程为离散随机过程。把随机序列的指标集合 T T T看成时间指标时,这个随机序列就是离散时间序列。
当 T T T是全体实数或全体非负实数时,称相应的随机过程为连续随机过程。把随机序列的指标集合 T T T看成时间指标时,这个随机序列就是连续时间序列。
设 a t {a_t} at为平稳序列,对于 ∀ t ∈ N \forall t\in N ∀t∈N,都有
E ( a t ) = μ E(a_t)=\mu E(at)=μ
C O V ( a t , a s ) = { σ a 2 , ( t = s ) 0 , t ≠ s COV(a_t,a_s) = \left\{ \begin{aligned} \ \sigma^2_a, (t=s) \\ \ 0, t\neq s \end{aligned} \right. COV(at,as)={ σa2,(t=s) 0,t=s
对于 ∀ n , t i ∈ T ( i = 1 , 2 , . . . , n ; t 1 < t 2 < . . . < t n ) \forall n,t_i \in T(i=1,2,...,n; t_1
对于 ∀ t ∈ T , X t \forall t \in T,X_t ∀t∈T,Xt的均值和方差存在,则称此过程为二阶矩过程。
若随机过程 { X t , t ∈ T } \{X_t, t \in T\} {Xt,t∈T}是一个二阶矩过程,且满足:
E X t = μ , ∀ t ∈ T E [ X t + τ ] [ X t − μ ] = γ τ , ∀ t , t + τ ∈ T EX_t=\mu, \forall t\in T \\ \ \\ E[X_{t+\tau}][X_t-\mu]=\gamma_\tau, \forall t,t+\tau \in T EXt=μ,∀t∈T E[Xt+τ][Xt−μ]=γτ,∀t,t+τ∈T
则称 { X t , t ∈ T } \{X_t,t\in T \} {Xt,t∈T}为宽平稳随机过程。
注意:白噪声为宽平稳随机过程,平稳时间序列中讨论的都为宽平稳随机序列。
对于 ∀ t i ( i = 1 , 2 , . . . , n ) \forall t_i(i=1,2,...,n) ∀ti(i=1,2,...,n)和任意实数 s s s,随机过程 { X t } \{X_t\} {Xt}的 n n n维分布函数满足关系式,即为严平稳随机过程:
F n ( X 1 , X 2 , . . . , X n ; t 1 , t 2 , . . . , t n ) = F n ( X 1 , X 2 , . . . , X n ; t 1 + s , t 2 + s , . . . , t n + s ) F_n(X_1,X_2,...,X_n;t_1,t_2,...,t_n)=F_n(X_1,X_2,...,X_n;t_1+s,t_2+s,...,t_n+s) Fn(X1,X2,...,Xn;t1,t2,...,tn)=Fn(X1,X2,...,Xn;t1+s,t2+s,...,tn+s)
二阶矩存在的严平稳随机过程一定是宽平稳随机过程,反之不成立。
若 { X t , t ∈ T } \{X_t, t\in T\} {Xt,t∈T}的有限维分布都是正态分布,则称 { X t , t ∈ T } \{X_t, t \in T\} {Xt,t∈T}为正态随机过程。
动态性:系统现在的行为与其历史行为的相关性,也就是系统的记忆性,具体地,就是在某一时刻进入系统的输入对系统后续行为的影响,如果该输入只影响系统下一时刻的行为,而对下一时刻以后的行为不发生作用,那么系统就有一阶动态或一期记忆性。
那么以此类推,如果该输入对系统之后的 n n n个时刻的行为都有影响,那么就说系统具有 n n n阶动态性。例如, n n n阶自回归模型( A R ( n ) AR(n) AR(n))为:
X t = ϕ 1 X t − 1 + ϕ 2 X t − 2 + . . . + ϕ n X t − n + a t X_t = \phi_1 X_{t-1}+\phi_2 X_{t-2}+...+\phi_n X_{t-n}+a_t Xt=ϕ1Xt−1+ϕ2Xt−2+...+ϕnXt−n+at
与 A R ( n ) AR(n) AR(n)模型对比来看, M A ( m ) MA(m) MA(m)模型描述的是系统对过去时刻进入系统的噪声的记忆:
X t = a t − θ 1 a t − 1 − θ 2 a t − 2 − . . . − θ m a t − m X_t = a_t-\theta_1 a_{t-1}-\theta_2 a_{t-2}-...-\theta_m a_{t-m} Xt=at−θ1at−1−θ2at−2−...−θmat−m
综合来看, A R M A ( n , m ) ARMA(n,m) ARMA(n,m)描述的是系统对过去自身状态以及各时刻进入的噪声的记忆。
X t − ϕ 1 X t − 1 − ϕ 2 X t − 2 − . . . − ϕ n X t − n = a t − θ 1 a t − 1 − θ 2 a t − 2 − . . . − θ m a t − m X_t-\phi_1 X_{t-1}-\phi_2 X_{t-2}-...-\phi_n X_{t-n} \\=a_t-\theta_1 a_{t-1}-\theta_2 a_{t-2}-...-\theta_m a_{t-m} Xt−ϕ1Xt−1−ϕ2Xt−2−...−ϕnXt−n=at−θ1at−1−θ2at−2−...−θmat−m
以 A R ( 1 ) AR(1) AR(1)模型为例:
X t = X t − 1 + a t X_t = X_{t-1}+a_t Xt=Xt−1+at
即有下式,其中 ∇ \nabla ∇表示差分算子:
∇ X t = a t \nabla X_t = a_t ∇Xt=at
除此之外,我们称 Y t = X t − X t − 1 Y_t=X_t - X_{t-1} Yt=Xt−Xt−1叫做关于 X t X_t Xt的一阶差分,记为:
Y t = ∇ X t Y_t = \nabla X_t Yt=∇Xt
由此递归,则称 Z t = Y t − Y t − 1 Z_t=Y_t - Y_{t-1} Zt=Yt−Yt−1叫做关于 Y t Y_t Yt的一阶差分,也是关于 X t X_t Xt的二阶差分,记为:
Z t = ∇ Y t = X t − X t − 1 − X t − 1 + X t − 2 = ∇ 2 X t Z_t = \nabla Y_t=X_t - X_{t-1}-X_{t-1} + X_{t-2}=\nabla^2X_t Zt=∇Yt=Xt−Xt−1−Xt−1+Xt−2=∇2Xt
类似地,设 X t X_t Xt地第 k − 1 k-1 k−1次差分为 W t W_t Wt,则称 W t − W t − 1 W_t-W_{t-1} Wt−Wt−1为 X t X_t Xt的 k k k阶差分。
注意:k阶差分不是简单的$X_t - X_{t-k}$,而是叠加差分。
同样以 A R ( 1 ) AR(1) AR(1)模型为例:
X t = X t − 1 + a t X_t = X_{t-1}+a_t Xt=Xt−1+at
对应的齐次差分方程的解为:
X t = c φ 1 t + a t , t ∈ Z X_t = c\varphi_1^t+a_t, t\in Z Xt=cφ1t+at,t∈Z
由 A R ( 1 ) AR(1) AR(1)右边的形式可知,模型的特解可能是 { a t } \{a_t\} {at}序列的线性组合:
X t = φ 1 X t − 1 + a t = φ 1 ( φ 2 X t − 2 + a t − 1 ) + a t = φ 1 2 X t − 2 + φ 1 a t − 1 + a t = φ 1 2 ( φ X t − 3 + a t − 2 ) + φ 1 a t − 1 + a t = φ 3 X t − 3 + φ 2 a t − 2 + φ 1 a t − 1 + a t . . . = ∑ j = 0 ∞ φ 1 j a t − j \begin{aligned} X_t &= \varphi_1X_{t-1}+a_t \\ &= \varphi_1(\varphi_2X_{t-2}+a_{t-1})+a_t \\ &=\varphi_1^2X_{t-2}+\varphi_1a_{t-1}+a_t \\ &=\varphi_1^2(\varphi X_{t-3}+a_{t-2})+\varphi_1a_{t-1}+a_t \\ &=\varphi^3X_{t-3}+\varphi^2a_{t-2}+\varphi_1a_{t-1}+a_{t} \\ &... \\ &=\sum^{\infty}_{j=0}\varphi_1^{j}a_{t-j} \end{aligned} Xt=φ1Xt−1+at=φ1(φ2Xt−2+at−1)+at=φ12Xt−2+φ1at−1+at=φ12(φXt−3+at−2)+φ1at−1+at=φ3Xt−3+φ2at−2+φ1at−1+at...=j=0∑∞φ1jat−j
则 A R ( 1 ) AR(1) AR(1)的通解为:
X t = ∑ j = 0 ∞ φ 1 j a t − j + c φ 1 t X_t=\sum^{\infty}_{j=0}\varphi_1^{j}a_{t-j}+c\varphi_1^t Xt=j=0∑∞φ1jat−j+cφ1t
而其中系数函数 φ 1 j \varphi_1^j φ1j客观地描述了该系数地动态性,故称此系数为格林函数,用 G j G_j Gj表示:
G j = φ 1 j G_j = \varphi_1^j Gj=φ1j
A R ( 1 ) AR(1) AR(1)的特解也可以改写为:
X t = ∑ j = 0 ∞ G 1 j a t − j X_t=\sum^{\infty}_{j=0}G_1^{j}a_{t-j} Xt=j=0∑∞G1jat−j
后移算子 B B B表示后移的期数,如: B j X t = X t − j B^jX_t=X_{t-j} BjXt=Xt−j
具有如下性质:
回顾 A R ( 1 ) AR(1) AR(1)模型的特解为下式,下式也被成为Wold分解式, G j G_j Gj也叫Wold系数:
X t = ∑ j = 0 ∞ = G j a t − j X_t = \sum^\infty_{j=0} =G_ja_{t-j} Xt=j=0∑∞=Gjat−j
由于 a t − j a_{t-j} at−j为相互独立的(模型假设),所以可以看作线性空间的基, X t X_t Xt可由 a t − j a_{t-j} at−j进行线性表示。其系数 G j G_j Gj是 X t X_t Xt对于 a t − j a_{t-j} at−j的坐标投影, X t X_t Xt是 G j a t − j G_ja_{t-j} Gjat−j的正交向量和。
也就是说,用线性空间来审视上式,即为wold分解。
常用的参数估计方法:
条件最小二乘估计是实际中最常用的参数估计方法,假设条件为:
a t − 1 = a t − 2 = . . . = a t − q = 0 a_{t-1}=a_{t-2}=...=a_{t-q}=0 at−1=at−2=...=at−q=0
残差平方和方程为:
Q ( β ^ ) = ∑ t = p + 1 n a t 2 = ∑ t = p + 1 n [ X t − ∑ i = 1 p φ i X t − i + ∑ j = 1 q θ j a t − j ] 2 Q(\hat\beta)=\sum^n_{t=p+1}a_t^2=\sum^n_{t=p+1}[X_t-\sum^p_{i=1}\varphi_iX_{t-i}+\sum^q_{j=1}\theta_ja_{t-j}]^2 Q(β^)=t=p+1∑nat2=t=p+1∑n[Xt−i=1∑pφiXt−i+j=1∑qθjat−j]2
解法:迭代法
优缺点:
都是用迭代
给出初始值,根据式子进行迭代计算,直至相邻两次迭代值相差不大时停止迭代,最后迭代结果作为近似解