【机器学习系列】浙大机器学习课程-第二章支持向量机

文章目录

  • 1.支持向量机线性可分情况
    • 1.1线性可分的定义
    • 1.2线性可分下的优化问题
  • 2.支持向量机算法
    • 2.1核函数的定义
    • 2.2原问题和对偶问题
  • 3.度量系统性能的标准
    • 3.1识别率
    • 3.2混淆矩阵
    • 3.3ROC曲线
  • 4.支持向量机的多分类问题

1.支持向量机线性可分情况

1.1线性可分的定义

线性可分指的是可以使用一条直线分开两个不同的类别,否则为线性不可分。
二维特征空间中可视化的例子:
【机器学习系列】浙大机器学习课程-第二章支持向量机_第1张图片
三维特征空间可视化的例子:
【机器学习系列】浙大机器学习课程-第二章支持向量机_第2张图片

1.2线性可分下的优化问题

需要注意的是,在线性不可分的情况下,我们通过添加松驰项来放宽限制条件的约束。此外,我们在目标函数中添加对松弛项的惩罚。
【机器学习系列】浙大机器学习课程-第二章支持向量机_第3张图片

2.支持向量机算法

支持向量机是通过将特征空间由低维映射为高维。

2.1核函数的定义

上面的问题中,将特征空间从低维映射到高维的关键元素就是映射函数 φ ( ⋅ ) \varphi(\cdot) φ()的选取。

SVM中不需要知道映射函数的具体形式,我们仅仅需要知道核函数 K ( X 1 , X 2 ) K(X_1,X_2) K(X1,X2)的形式。通常来说,我们也无法显式表示映射函数的具体形式。
K ( X 1 , X 2 ) = φ ( X 1 ) T φ ( X 2 ) K(X_1,X_2) = \varphi(X_1)^T\varphi(X_2) K(X1,X2)=φ(X1)Tφ(X2)
因为核函数和映射关系 φ ( ⋅ ) \varphi(\cdot) φ()是一一映射的关系。这种核函数不是任意的,需要满足交换性和半正定性条件。常见的核函数为高斯核函数和sigmoid核函数。

【机器学习系列】浙大机器学习课程-第二章支持向量机_第4张图片

2.2原问题和对偶问题

【机器学习系列】浙大机器学习课程-第二章支持向量机_第5张图片

3.度量系统性能的标准

3.1识别率

在不知道数据分布的情况下,单纯使用识别率评判系统的好坏是没有意义的。

3.2混淆矩阵

【机器学习系列】浙大机器学习课程-第二章支持向量机_第6张图片

3.3ROC曲线

4.支持向量机的多分类问题

  1. 1类对K-1类
    存在的问题是:类别不平衡。
    【机器学习系列】浙大机器学习课程-第二章支持向量机_第7张图片

  2. 1类对另一类
    存在的问题:当类别数目过大时,需要构建的支持向量机数量过多,从而导致过高的时间计算开销。
    【机器学习系列】浙大机器学习课程-第二章支持向量机_第8张图片

你可能感兴趣的:(机器学习系列,机器学习,支持向量机,人工智能)