吴恩达机器学习过拟合与正则化07

·首先这里有解决过拟合的三种方法:
·(1).收集更多的训练数据
吴恩达机器学习过拟合与正则化07_第1张图片
·(2).缩小参数(w,b)的大小--正则化
吴恩达机器学习过拟合与正则化07_第2张图片
·(3).从原有特征中,挑选出部分特征用于训练
吴恩达机器学习过拟合与正则化07_第3张图片
*总结:但在实际训练的过程中,如果数据集是一定的,没有办法获得更多的训练数据,并且原有的特征中,不知道该舍弃哪些特征或者不希望舍弃特征,那么就需要使用正则化方法来解决过拟合的问题。

1.添加正则化

(1).正则化线性回归

吴恩达机器学习过拟合与正则化07_第4张图片
由上图可以看出:
·线性回归的正则化代价函数是在原有代价函数图片.png的基础上加了一项图片.png
·线性回归的梯度下降公式在更新wj时,也在原来图片.png的基础上添加了一项图片.png,而b在更新的过程中和原来一样图片.png

(2).正则化逻辑回归

吴恩达机器学习过拟合与正则化07_第5张图片
由上图可以看出:
·逻辑回归的正则化代价函数是在原有代价函数图片.png的基础上加了一项图片.png
·逻辑回归的梯度下降公式在更新wj时,也在原来图片.png的基础上添加了一项图片.png,而b在更新的过程中和原来一样图片.png
上面的两张图片展示了线性回归和逻辑回归的代价和梯度函数。注意:
Cost:
线性回归和逻辑回归的成本函数差异显著,但在方程中加入正则化是相同的。
Gradient:
线性回归和逻辑回归的梯度函数非常相似。它们的区别仅仅在于图片.png的实现。

2.具有正则化的代价函数

(1).正则化线性回归的代价函数

代价函数正则化线性回归方程为:
吴恩达机器学习过拟合与正则化07_第6张图片
将此与没有正则化的代价函数(在之前的实验室中实现)进行比较,后者的形式为:
图片.png
区别在于正则化项
图片.png
包括这一项的激励梯度下降,以最小化参数的大小。注意,在本例中,参数不是正则化的。这是标准做法。

(2).正则化逻辑回归的代价函数

对于正则化逻辑回归,代价函数为
图片.png
将此与没有正则化的成本函数(在之前的实验室中实现)进行比较:
图片.png
与上面线性回归的情况一样,差异是正则化项,即
图片.png
包括这一项的激励梯度下降,以最小化参数的大小。注意,在本例中,参数不是正则化的。这是标准做法。

3.带有正则化的梯度下降

运行梯度下降的基本算法不随正则化而改变,它是:
吴恩达机器学习过拟合与正则化07_第7张图片
每个迭代在图片.png上为所有同时执行更新。
正则化改变的是计算梯度。

4.用正则化计算梯度(线性/逻辑)

线性回归和逻辑回归的梯度计算几乎相同,只有图片.png的计算不同。
吴恩达机器学习过拟合与正则化07_第8张图片
·m是数据集中训练示例的数量
图片.png模型的预测,而图片.png是目标
·对于线性回归模型
图片.png
·对于逻辑回归模型
图片.png
其中()为sigmoid函数:
图片.png
添加了正则化的术语是图片.png

你可能感兴趣的:(机器学习)