线性回归算法总结

回归是指利用样本(已知数据),产生拟合方程,从而对(未知数据)进行预测。

用途:预测、判别合理性。

困难:①选定变量(多元);②避免多重共线性;③观察拟合方程,避免过度拟合;④检验模型的合理性。

因变量与自变量的关系:①相关关系(非确定性关系,比如物理与化学成绩相关性),使用相关系数衡量线性相关性的强弱;②函数关系(确定性关系)

相关系数求解:Pearson样本积矩相关系数


注意,如果样本是两组配对的顺序数据时,则采用Spearman等级相关系数(秩相关或名次相关)


公式中,分别表示的名次(从大到小或从小到大)。


线性回归中最小二乘法的应用

判断直线拟合程度,如果是通过点向直线引垂线,由解析几何点到直线的距离公式可知,涉及到开方,这样不好求极值,所以改为由点向直线引竖直线求长度,去绝对值,

这回归误差/残差平方和(二乘数)

为了使得二乘数RSS最小,则求RSS的极小值,该方法称为最小二乘法

线性回归算法总结_第1张图片

解二元一次方程组,得到a, b的估计值。

注意:回归问题擅长于内推插值,而不擅长于外推归纳,在使用回归模型做预测时要注意x适用的取值范围。


(1)多元线性回归模型

①   判定系数(模型对样本数据的解释程度)


②回归系数检验统计量(变量的显著性)

③线性回归方程拟合程度检验统计量(模型的拟合程度)



④简单线性回归(一元),样本Pearson积矩相关系数


(2)含虚拟变量的多元线性回归模型

线性回归算法总结_第2张图片

如果直接定义黄、白、黑分别为1,2,3,这样是错误的


虚拟变量在这里起到调整截距作用

(3)逐步回归

向前引入法:从一元回归开始,逐步增加变量,使指标值达到最优为止;

向后剔除法:从全变量回归开始,逐步删去某个变量,使指标值。。。;

逐步筛选法:同时向前引入和向后删除

 

(4)回归诊断

①样本是否符合正态分布假设,如果不符合,则检验和区间预测没法做,这是因为很多检验和预测方法都是基于正态分布的假定之上;

②是否存在离群值导致模型产生较大误差,比如输入错误;

③线性模型是否合理;

④误差是否满足独立性、等方差性、正态分布等假设条件,即不会随y的改变而改变,误差项不受y的影响

⑤是否存在多重共线性,这会导致矩阵行列式值为0,则矩阵的逆会趋于无穷大,多元回归模型的系数也会失真变大。


对应的解决方法:

①   拟合度检验,卡方统计量;

②   散点图观察等;

③   统计量是否合理;

④   残差图是否合理;

⑤   逐步回归,解决多重共线性的一种方法

(5)多重共线性

若存在多重共线性,则至少一个特征值近似接近于0。

经过中心化和标准化得到的向量,记


因此,如果存在多重共线性,则是没办法求解的,或者求解结果不稳定。

出现模型不稳定情况(鲁棒性较低),当数据发生一小点变化时,结果就会发生很大变化,比如系数求出来很大,几千万、几百万;系数正负符号也会经常发生切变。

   (注意:矩阵出现奇异性原因有两个:①变量个数比样本多;②出现多重共线性。)


多重共线性度量指标

线性回归算法总结_第3张图片

如何找出哪些变量是多重共线性








你可能感兴趣的:(统计学)