机器学习系列:过拟合与正则化

目录

一、过拟合问题(The Problem of Overfitting)

1、回归问题中的过拟合问题

 2、分类问题中的过拟合问题

3、过拟合的解决方法

 二、正则化(Regularization)

1、代价函数

2、正则化线性回归问题(Regularized Linear Regression)

3、正规化的逻辑回归(Regularized Logistic Regression)


一、过拟合问题(The Problem of Overfitting)

前面学习过了线性回归和逻辑回归问题,两种学习算法已经可以解决许多问题。但是当他们应用到某些特定的机器学习应用时,会遇到 过拟合over-fitting)的问题,可能会导致学习效果很差。

1、回归问题中的过拟合问题

如果我们有许多的特征,可以通过学习得到的假设可能能够非常简单的适应训练集(代价函数可能几乎为0),但是也可能会不能推广到新的数据。举例子说明:在这里插入图片描述

从上面的图中可以看出:

  • 第一个模型是一个线性模型,欠拟合(under-fitting),具有较大偏差(high bias),所以不能很好地适应训练集;
  • 第三个模型是一个四次方的模型,过于强调拟合原始数据,而丢失了算法的本质:预测新数据。虽然能非常好地适应训练集,但在新输入变量进行预测时效果表现的很差。若给出一个新的值使之预测,它将表现的很差,是 过拟合(over-fitting)
  • 中间的模型似乎最合适。

 简单的说:

  • 太简单----欠拟合,没有充分的挖掘数据间的规律
  • 太复杂----过拟合,过分挖掘数据间的规律了

 2、分类问题中的过拟合问题

分类问题中也存在这样的问题:

在这里插入图片描述

就以多项式理解,x xx 的次数越高,拟合的越好,但相应的预测的能力就可能变差。那么出现了过拟合问题后,我们该如何处理呢?

3、过拟合的解决方法

  • 丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用一些模型选择的算法来帮忙(例如PCA)。(即减少特征数量)
  • 正则化Regularization)。 保留所有的特征,但是减少参数的大小。

 二、正则化(Regularization)

1、代价函数

以回归问题中的过拟合为例,假设过拟合的模型是:

从上面的问题中我们可知,正是高次项导致了过拟合的产生,所以如果我们能降低这些高次项的权重(接近于0),即让其系数越小的话,模型就能很好的拟合了。

我们要做的就是在一定程度上减小这些参数的值,这就是正则化的基本方法。可以减少和的大小,做法是修改代价函数,在其中的 和 设置一点惩罚。这样的话就可以在尝试最小化代价时也需要将这个惩罚纳入考虑中,并最终导致选择最小的一些 和 。

修改后的代价函数为:

这样做的话,我们在尝试最小化代价函数时也需要将这个惩罚纳入考虑中,并最终导致选择较小一些的 和 ,对预测结果的影响就比之前要小许多。假如我们有非常多的特征,我们并不知道其中哪些特征要惩罚,那么将对所有的特征进行惩罚,并且让代价函数最优化的软件来选择这些惩罚的程度。这样的结果是得到了一个较为简单的能防止过拟合问题的假设:

其中 λ 又称为正则化参数(Regularization Parameter)。 注:根据惯例,我们不对进行惩罚。经过正则化处理的模型与原模型的可能对比如下图所示:
 

机器学习系列:过拟合与正则化_第1张图片

如果选择的正则化参数 λ 过大,则会把所有的参数都最小化了,导致模型变成,也就是上图中红色直线所示的情况,造成欠拟合。那么为什么会增加的一项可以使 θ 的值减小呢?因为如果我们令 λ 的值很大的话,为了使代价函数尽可能的小,所有λ 的值(不包括都会在一定程度上减小。

但是若 λ 的值太大了,那么 θ (不包括)都会趋近与0。这样我们所得到的的只能是一条平行与x轴的直线。所以对于正则化,我们要取一个合理的 λ  值,这样才能更好的应用正则化。

2、正则化线性回归问题(Regularized Linear Regression)

对于线性回归的求解,有两种学习算法:一种基于梯度下降,一种基于正规方程。分别讨论两种算法的正则化。

2.1、基于梯度下降的正则化

我们假设

正则化线性回归的代价函数为:

 如果我们要使用梯度下降法令这个代价函数最小化,即机器学习系列:过拟合与正则化_第2张图片

因为我们未对进行正则化,所以梯度下降算法将分两种情形:
机器学习系列:过拟合与正则化_第3张图片 对上面的算法中的 j = 1,2....n时的更新式子进行调整可得:

可以看出,正则化线性回归的梯度下降算法的变化在于:每次都在原有算法更新规则的基础上令 θ 值减小到原来的 倍。通常学习率 α 很小,样本数量 m 很大,因此

2.2 、基于正规方程的正则化 

同样也可以利用正规方程来求解正则化线性回归模型。已知正规方程可以求出使代价函数取得最小值的  θ :

 加入正则化后,正规方程变为:

并且当 λ > 0 时,括号内的矩阵一定是可逆矩阵,因此运用正则化还可以解决某些情况下矩阵 不可逆的问题。

3、正规化的逻辑回归(Regularized Logistic Regression)

针对逻辑回归问题,我们首先学习了使用梯度下降法来优化代价函数J(θ),有学习了更高级的优化算法(需要自行设计代价函数J(θ))。

机器学习系列:过拟合与正则化_第4张图片

上面的公式为逻辑回归的代价函数。给代价函数增加惩罚项后,其正则化的表达式为:

要最小化该代价函数,通过求导,得出梯度下降算法为:

机器学习系列:过拟合与正则化_第5张图片

 注:看上去同线性回归一样,但是知道 ,所以与线性回归不同。

你可能感兴趣的:(机器学习,逻辑回归,回归,人工智能)