机器学习:线性回归的基本假设

题目:关于线性回归的描述,以下正确的有:

A. 基本假设包括随机干扰项是均值为0,方差为1的标准正态分布

B. 基本假设包括随机干扰下是均值为0的同方差正态分布

C. 在违背基本假设时,普通最小二乘法估计量不再是最佳线性无偏估计量

D. 在违背基本假设时,模型不再可以估计

E. 可以用DW检验残差是否存在序列相关性

F. 多重共线性会使得参数估计值方差减小

正确答案: B C E 

---------------------------------------------------------------------------------------------------------------

一元线性回归的基本假设有

1、随机误差项期望值或平均值为0; 

2、随机误差项服从正态分布;

3、随机误差项彼此不相关;
4、对于解释变量的所有观测值,随机误差项有相同的方差; 
5解释变量是确定性变量,不是随机变量,与随机误差项彼此之间相互独立;
6解释变量之间不存在精确的(完全的)线性关系,即解释变量的样本观测值矩阵是满秩矩阵;
违背基本假设的计量经济学模型还是可以估计的,只是不能使用普通最小二乘法进行估计。 
当存在异方差时,普通最小二乘法估计存在以下问题: 参数估计值虽然是无偏的,但不是最小方差线性无偏估计。

杜宾-瓦特森(DW)检验,计量经济,统计分析中常用的一种检验序列一阶 自相关 最常用的方法。 
所谓多重共线性(Multicollinearity)是指线性回归模型中的解释变量之间由于存在精确相关关系或高度相关关系而使模型估计失真或难以估计准确。影响

(1)完全共线性下参数估计量不存在
(2)近似共线性下OLS估计量非有效
多重共线性使参数估计值的方差增大 ,1/(1-r2)为 方差膨胀因子 (Variance Inflation Factor, VIF)
(3)参数估计量经济含义不合理
(4)变量的显著性检验失去意义,可能将重要的解释变量排除在模型之外
(5)模型的预测功能失效。变大的方差容易使区间预测的“区间”变大,使预测失去意义。
答案解析摘自牛客网悟的回答: http://www.nowcoder.com/profile/294910/test/2641111/25336#summary

你可能感兴趣的:(机器学习:线性回归的基本假设)