【一起入门MachineLearning】中科院机器学习第*课-支持向量机SVM

专栏介绍:本栏目为 “2021秋季中国科学院大学周晓飞老师的机器学习” 课程记录,不仅仅是课程笔记噢~ 如果感兴趣的话,就和我一起入门Machine Learning吧

目录

  • 思想与数学原理
  • 软间隔与硬间隔
  • 对偶问题
  • 核函数方法

思想与数学原理

  • SVM是一种监督学习的线性监督分类器,基本思想是找到一个决策平面将样本数据分开,并且要保证尽可能加大两个类别间的距离,使它们更容易分开。
  • 边界分界面与类别相切
  • 边界分界面与决策分界面平行,决策分界面到两个边界分界面的距离相等。
  • 两个边界分界面之间的距离称为类别间距离,我们期望使这个类别间距离尽可能大。
  • 最大化类别加距离,等价为最小化间距倒数的平方,这个式子即定义为SVM的损失函数。
    【一起入门MachineLearning】中科院机器学习第*课-支持向量机SVM_第1张图片

软间隔与硬间隔

  • 硬间隔(Hard-Margin SVM)是线性分类器,不能处理不同类别相互交融的情况。(下图左)
  • 软间隔(Soft-Margin SVM)加入容错率,来保证大局上的正确性。
    【一起入门MachineLearning】中科院机器学习第*课-支持向量机SVM_第2张图片

对偶问题

支持向量机的对偶问题是凸二次优化问题。
【一起入门MachineLearning】中科院机器学习第*课-支持向量机SVM_第3张图片

核函数方法

对于一些线性不可分的情况,可以通过核函数将样本数据映射到高维空间,在通过一个平面将样本划分。

例题可以参考:

你可能感兴趣的:(#,机器学习,支持向量机,机器学习)