最小二乘估计

1. 针对问题

考察一类估计,它们一般不具有最佳的性质。特点是对观测数据没有任何概率假设,只需要假设一个信号模型。LS应用比较广泛,但不足就是不能保证最佳的估计,而且若没有对数据的概率结构做某些特定的假设,那么统计性能时无法估计的。

2 .对比

MVUE:一个无偏最小方差的估计量;对参数值来进行度量,寻找使估计的值与真是参数值差距达到最小。

LSE:给定观测数据x[n]和假定的信号s[n](无噪声数据)之差的平方和达到最小。

3. LS控制模型

                                                 最小二乘估计_第1张图片

目标:\theta 的最小二乘估计量选择那个使信号s[n]最靠近观测数据x[n]的值。

靠近度由LS误差来度量: J(\theta )=\prod _{n=1}^{N}(x[n]-s[n])^2

Remark:J与θ的关系使通过s[n]联系起来的;没有对任何x[n]做任何概率(统计)假设;s[n]是完全确定性的信号,且与θ有关。

4. LS

考虑信号对待估参数是线性关系,而信号本身可能并非线性。

i)标量下:信号模型设为—— s[n]=\theta h[n]   h[n]为已知序列

                  LS指标:J(\theta )=\sum_{n=1}^{N}(x[n]-\theta h[n])^2

                 minJ:\hat{\theta }=\sum_{n=1}^{N}x[n]h[n]/\sum_{n=1}^{N}h^2[n]

ii)矢量下: S=Hθ

                   H_{N\times P}满秩(N>P)——确保H^TH可逆。

                  J(\theta )=(X-H\theta )^T(X-H\theta )=X^TX-2X^TH\theta +\theta ^TH^TH\theta

                  \hat{\theta }=(H^TH)^{-1}H^TX, J_{min}=X^T(X-H\hat{\theta })

iii)考虑加权矩阵W:J(\theta )=(X-H\theta )^TW(X-H\theta )

                                  \hat{\theta }=(H^TWH)^{-1}H^TWX

5. 按阶递推的LS

信号模型未知,需假设信号模型。因为是假设的信号模型,因此对于LSE的影响很大,故需要进行精准模型建立,就是增加多项式的阶次,直到LS误差达到需求为止。

信号模型 :类似  s[n]=A_0+A_1t^1+...+A_nt^n 这种模型

Remark:当模型增加一个阶次时(增加了一个参数),其他上一阶估计的参数不变。

先假设模型为K个参数的多项式 ,得到LSE估计   \hat{\theta _k}=(H_k^TH_k)^{-1}H_k^TX

现在增加到K+1个参数的多项式: 此时 H_{k+1}=[H_K , h_{k+1}]

则有                          [\begin{matrix} (\hat{\theta _{k}-(H_k^TH_k)^{-1}H_k^Th_{k+1}h_{k+1}^TP_k^\perp })/h_{k+1}^TP_k^\perp h_{k+1}\\ h_{k+1}^TP_k^\perp X/h_{k+1}^TP_k^\perp Xh_{k+1} \end{matrix}]

其中                               P_k^\perp =I-H_k(H_k^TH_k)^{-1}H_k^T

6. 序贯最小二乘估计

多数信号处理中,数据是按照时间顺序获取的,当可供使用的数据越来越多时,有两者选择

1)获取所有可用数据后在进行处理

2)按照时间顺序进行数据处理

若已确定基于数据{x[0],...,x[N-1]}——x[n]=s[n]+w[n](假定w[n]服从零均值方差为\sigma _n^2的高斯分布)的LSE \hat{A },现在又获得新数据 x[N],可不用重新用公式进行计算。

通过修改\hat{A} 得到新数据序列的LSE,估计量递推 \hat{A}[N]=\hat{A}[N-1]+K[N](x[n]-\hat{A}[N-1])

其中  K[N]=var(\hat{A}[N-1])/(var(\hat{A}[N])+\sigma _N^2), 方差  var(\hat{A}[N])=(1-K[N])var(\hat{A}[N-1])

7. 约束LS

未知参数受到限制的LS问题

若 θ 受 r

解决过程:拉格朗日乘子法: J_c = (X-H\theta )^T(X-H\theta )+\lambda ^T(A\theta -b)

                  取θ梯度为0推导出:\hat{\theta _c }=\hat{\theta }-(H^TH)^{-1}A^T\lambda /2    ,   \lambda =2[A(H^TH)^{-1}A^T]^{-1}(A\theta -b)

8. 非线性LS

针对 s[n]信号与待估计参数θ不为线性情况

解决方法:

1)参数变换:寻找一个 θ 的一对一变换\alpha =g(\theta )),得到新空间中的一个线性信号模型。

因为是一对一变换,则反函数存在: \theta=g^{-1}(\alpha ) ,然后找到函数 g 使得:s(\theta (\alpha ))=s(g^{-1}(\alpha ))=H\alpha 为线性。进而可以得到\hat{\theta}=g^{-1}(\hat{\alpha} ), 而  \hat{\alpha} =(H^TH)^{-1}H^TX

2)参数分离

信号模型是 θ 的 非线性,但若存在部分参数是线性的,则可进行参数分离。

假定        \theta =\begin{bmatrix} \alpha \\ \beta \end{bmatrix}=\begin{bmatrix} (p-q)\times 1 \\ q\times 1 \end{bmatrix},上部分为非线性,下部分为线性。

假定 α 已知,S=H(\alpha )\beta  , H(α)是一个与α相关的N×q矩阵

此时, J(\alpha ,\beta )=(X-H(\alpha)\beta)^T(X-H(\alpha)\beta)

将 α 固定:\hat{\beta }=(H^T(\alpha )H(\alpha ))^{-1}H^T(\alpha )X

将 \hat{\beta } 估计带回 J(\alpha ,\beta)得到: J(\alpha ,\hat{\beta} )=X^T[1-H(\alpha)(H(\alpha))^TH(\alpha ))^{-1}H^T(\alpha )]X

最后最小 J(\alpha ,\hat{\beta} ) 求取 \hat{\alpha } 即可。

你可能感兴趣的:(数学-统计,概论...)