专栏介绍:本栏目为 “2021秋季中国科学院大学周晓飞老师的机器学习” 课程记录,不仅仅是课程笔记噢~ 如果感兴趣的话,就和我一起入门Machine Learning吧
目录
- 思想与数学原理
- 软间隔与硬间隔
- 对偶问题
- 核函数方法
思想与数学原理
- SVM是一种监督学习的线性监督分类器,基本思想是找到一个决策平面将样本数据分开,并且要保证尽可能加大两个类别间的距离,使它们更容易分开。
- 边界分界面与类别相切
- 边界分界面与决策分界面平行,决策分界面到两个边界分界面的距离相等。
- 两个边界分界面之间的距离称为类别间距离,我们期望使这个类别间距离尽可能大。
- 最大化类别加距离,等价为最小化间距倒数的平方,这个式子即定义为SVM的损失函数。
软间隔与硬间隔
- 硬间隔(Hard-Margin SVM)是线性分类器,不能处理不同类别相互交融的情况。(下图左)
- 软间隔(Soft-Margin SVM)加入容错率,来保证大局上的正确性。
对偶问题
支持向量机的对偶问题是凸二次优化问题。
核函数方法
对于一些线性不可分的情况,可以通过核函数将样本数据映射到高维空间,在通过一个平面将样本划分。
例题可以参考: