机器学习——Linear Regression(线性回归)

Linear Regression

目录

Linear Regression

模型

推导求解

正则化(岭回归)

总结

问题

参考资料


模型

推导求解

 

最小二乘优化

极大似然估计

评价函数

优化求解

 

假设:

           

    

 

最小二乘优化中隐含了一个高斯噪声?(TODO)

正则化(岭回归)

在上一节中,由推导得到w的解析解

数据项,即有N各样本,每个样本有p维特征,当N>>p时会出现过拟合现象,即对训练集你和情况很好,但在测试集上情况不理想。

解决过拟合有三种方式:

  1. 增加数据(数据增强)
  2. 特征选择/特征提取(PCA)
  3. 添加正则项

添加正则项后,

L1正则项:

L2正则项:

 

最小二乘优化

极大似然估计

评价函数

优化求解

 

假设:

           

           

           

 

  两种方法在添加正则项后依旧殊途同归

总结

最小二乘估计与极大似然估计殊途同归

线性回归解析解:

添加正则项后解析解:

问题

最小二乘法的几何意义?

机器学习——Linear Regression(线性回归)_第1张图片

最小二乘准则中隐含了高斯噪声的假设?

 

参考资料

https://www.bilibili.com/video/BV1hW41167iL(shuhuai008 bilibili)

https://github.com/ws13685555932/machine_learning_derivation(ws13685555932 github)

 

你可能感兴趣的:(机器学习,机器学习,算法)