目录
过拟合问题
代价函数
正则化线性回归
正则化逻辑回归
【此为本人学习吴恩达的机器学习课程的笔记记录,有错误请指出!】
我们学习了线性回归和逻辑回归,它们能够有效地解决许多问题,但是当将它们应用到某些特定的机器学习应用时,会遇到过拟合(over-fitting)问题,可能会导致它们效果很差,而正则化(regularization) 可以改善或者减少过度拟合问题。
下图是一个回归问题的例子:
第一个模型是一个线性模型(欠拟合),不能很好地适应我们的训练集;
第三个模型是一个四次方的模型(过拟合),过于强调拟合训练集,对新数据的泛化能力差;
第二个模型,似乎最合适,很好拟合了训练集,也适应了新数据。
分类问题中也存在这样的问题:
就以多项式理解, 的次数越高,拟合的越好,但相应的预测的能力就可能变差。
应该如何处理过拟合问题?
1.丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用一些模型选择的算法来处理(例如 PCA-主成分分析)
2.正则化。 保留所有的特征,但是减少参数 的大小( magnitude)。
上面的线性回归的模型(过拟合)是:
可以看出,正是那些高次项导致了过拟合的产生,所以如果我们能让这些高次项的系数(如: 3和4)接近于 0 的话,模型就能很好的拟合了。
所以我们要做的就是在一定程度上减小这些参数 的值,这就是正则化的基本方法。我们要做的便是修改代价函数,对参数3 和4 设置一点惩罚(减小参数 的值):
通过这样的代价函数选择出的3 和4 对预测结果的影响就比之前要小许多。
假如我们有非常多的特征,我们并不知道其中哪些特征我们要惩罚,我们将对所有的特征进行惩罚,并且让代价函数最优化软件来选择这些惩罚的程度。这样的结果是得到了一个较为简单的能防止过拟合问题的假设:
其中又称为正则化参数( Regularization Parameter)。 注:根据惯例,我们不对0 进行惩罚。
经过正则化处理的模型与原模型的对比如下图所示:
如果选择的正则化参数 λ 过大,则会把所有的参数都最小化了,导致模型变成 ℎ() =0,也就是上图中红色直线,造成欠拟合。
为什么增加正则项可以使的值减小?
因为如果我们令 的值很大的话,相当于加大了的权重,而梯度下降时为了使 Cost Function 尽可能的小,所有的 的值(不包括0)都会在一定程度上减小。
但若 λ 的值太大, 那么(不包括0)都会趋近于 0,这样我们所得到的只能是一条平行于轴的直线。
所以对于正则化,我们要取一个合理的 的值,这样才能更好的应用正则化。
对于线性回归的求解,我们之前推导了两种学习算法:一种基于梯度下降,一种基于正规方程。
正则化线性回归的代价函数为:
由于不对0 进行惩罚,梯度下降算法将分两种情形:
对上面的算法中 = 1,2, . . . , 时的更新式子进行调整可得:
可以看出,正则化线性回归的梯度下降算法的变化在于,每次都在原有算法更新规则的基础上令值减少了一个额外的值。
我们同样也可以利用正规方程来求解正则化线性回归模型,方法如下所示:
图中的矩阵尺寸为 ( + 1) ∗ ( + 1)。
针对逻辑回归问题,我们已经学习过两种优化算法:梯度下降法、高级优化算法,高级优化算法需要你自己设计代价函数()。
我们也给逻辑回归的代价函数增加一个正则化的表达式,得到代价函数:
要最小化该代价函数,通过求导,得出梯度下降算法为:
注:看上去同线性回归一样,但是假设函数 ℎ()是逻辑回归函数 ,所以与线性回归不同。
注意:
1. 虽然正则化的逻辑回归中的梯度下降和正则化的线性回归中的表达式看起来一样,但由于两者的ℎ()不同所以还是有很大差别。
2. 0不参与其中的任何一个正则化。