吴恩达机器学习笔记8——正则化Regularization

第8章 正则化Regularization

1,过拟合(the problem of overfitting)

吴恩达机器学习笔记8——正则化Regularization_第1张图片

吴恩达机器学习笔记8——正则化Regularization_第2张图片

欠拟合,过拟合

吴恩达机器学习笔记8——正则化Regularization_第3张图片

过多的特征变量,很少的训练样本,会引起正则化。

吴恩达机器学习笔记8——正则化Regularization_第4张图片

有两种方法处理过拟合的问题,一个是减少特征的数量,人为选择去除部分特征或者模型选择算法,用算法来选择特征;

另一个是正则化,保留所有的特征,但是可以减小某个特征的幅度或者值。

2,代价函数

吴恩达机器学习笔记8——正则化Regularization_第5张图片

加入惩罚项,从1到100,一般不用对theta_0加惩罚项,加了也不要紧。

吴恩达机器学习笔记8——正则化Regularization_第6张图片

如果lambda太大了,拟合的结果就会趋于一条直线,惩罚力度太大,偏差太大。

3,线性回归的正则化(Regularized linear regression)

梯度下降法:正则化

吴恩达机器学习笔记8——正则化Regularization_第7张图片

正规方程:正则化

 吴恩达机器学习笔记8——正则化Regularization_第8张图片

吴恩达机器学习笔记8——正则化Regularization_第9张图片

正则化可以解决X^TX不可逆的问题,只要加上lambda这一部分,就肯定是可逆的。

4,Logistic回归的正则化

吴恩达机器学习笔记8——正则化Regularization_第10张图片

吴恩达机器学习笔记8——正则化Regularization_第11张图片

吴恩达机器学习笔记8——正则化Regularization_第12张图片

在高级算法中,主要是构建出代价函数和梯度。

你可能感兴趣的:(吴恩达机器学习)