软间隔与正则化(支持向量机)-------机器学习

软间隔与正则化

软间隔

之前的博文中提过,支持向量机有一定的容错性,它允许有样本被分错,支持向量机以大局为重。特别是在存在噪音或者异常点的情况下,将这些所有的样本都完全的进行线性可分,这样很容易引起过拟合。所以支持向量机是允许在一些样本上出错的,为此,引入了“软间隔”的概念。

软间隔与正则化(支持向量机)-------机器学习_第1张图片

在之前的博文中介绍的支持向量机形式是要求将所有的样本全部分类正确,这称为“硬间隔”。“软间隔”是允许某些样本不满足约束。但是不满足约束的样本也不能太多,否则这个分类器的学习能力不足,很容易欠拟合。所以,在最大化间隔的时候,优化目标写成:

在我们写代码,调用sklearn库的时候,SVM函数中有一个参数为C,就是上述等式中的 C。我们一步一步慢慢看看这个等式的含义。首先C大于0,是一个常数,其中:

我们解释一下上面这个等式, 之前就说过y_i是我们样本的真实标签,y_i\in \{-1,+1\}\textbf{w}^Tx_i+b是我们分类器的预测结果,这里也就是支持向量机的预测结果。

第一种情况:如果真实标签和预测结果一致,那么y_i(\textbf{w}^Tx_i+b)=1,这个应该不难理解,这样一来就是说我们的分类器分类是对的,那么

你可能感兴趣的:(机器学习,机器学习,数据挖掘)