十四、大间距分类器-SVM

文章目录

  • 1、支持向量机-Support Vector Machine
  • 2、大间距分类器
  • 3、SVM决策的理论依据
  • 4、核函数(kernals)
    • 4.1如何选择“landmarks”
    • 4.2 如何使用SVM
  • THE END

1、支持向量机-Support Vector Machine

\qquad 首先从逻辑回归的成本函数入手说起:
十四、大间距分类器-SVM_第1张图片
\qquad 使用一个线性近似 c o s t 1 ( z ) cost_1(z) cost1(z)来近似表示逻辑回归中成本函数的第一项;使用线性近似 c o s t 0 ( z ) cost_0(z) cost0(z)来近似表示逻辑回归成本函数中的第二项。
\qquad 之后在SVM中,将成本函数中的常数项 1 / m 1/m 1/m去掉,并用参数C来替代归一化参数 λ \lambda λ
十四、大间距分类器-SVM_第2张图片
\qquad SVM成本函数估计的最终方式如下所示:
十四、大间距分类器-SVM_第3张图片
十四、大间距分类器-SVM_第4张图片

2、大间距分类器

\qquad 当使用SVM作为分类成本函数时,最终获得的分类边界距离各个样本点的距离会比较大,从而可以得到一个较大的分类间距(margin),使得分类器的鲁棒性更高。
十四、大间距分类器-SVM_第5张图片
\qquad 若将上述成本函数中的系数C设置为一个极大的数字(如10000),所以上述最小化成本函数可以通过求解下述约束优化问题得到:
十四、大间距分类器-SVM_第6张图片
\qquad 最终得到的分类边界如下图黑色分类边界所示:
十四、大间距分类器-SVM_第7张图片

3、SVM决策的理论依据

十四、大间距分类器-SVM_第8张图片

4、核函数(kernals)

十四、大间距分类器-SVM_第9张图片
\qquad 如上图所示,当使用非线性决策边界进行分类时,通常需要将假设函数取较高的幂,但是假设函数中特征取值方法很难确定。所以可以使用核函数方法,通过取“landmark”的方式,根据新特征跟“landmark”之间的相似程度来确定新的特征,每一个确定下来的“landmark”都代表一个新的特征。
十四、大间距分类器-SVM_第10张图片
\qquad "landmark"和某个样本( x 1 , x 2 x_1,x_2 x1,x2)之间的相似度(高斯核函数)的计算方法如下所示:
在这里插入图片描述
\qquad 当样本和“landmark”之前距离很近时,则 f 1 f_1 f1的取值约等于0,说明取到的样本和“landmark”之间相似度很高;当样本和“landmark”之间的距离很远时,则 f 1 f_1 f1的取值约等于0,说明取到的样本和“landmark”之间的相似度很低。
\qquad 核函数和相似度公式中的x和 σ \sigma σ之间的关系如下图所示:
十四、大间距分类器-SVM_第11张图片
\qquad 当确定了“landmark”的位置和 σ \sigma σ的取值之后,便可以使用 f 1 , f 2 , f 3 f_1,f_2,f_3 f1,f2,f3作为新的特征来定义假设函数:
十四、大间距分类器-SVM_第12张图片

4.1如何选择“landmarks”

\qquad 在使用SVM时,“landmark”的数量即为选取的训练数据集中样本的数量,即训练数据中每一个样本点都代表一个“landmark”,即对应一个特征。
十四、大间距分类器-SVM_第13张图片
\qquad SVM模型过拟合合欠拟合与参数取值的关系:
十四、大间距分类器-SVM_第14张图片

4.2 如何使用SVM

\qquad 根据特征数量和训练样本数量的多少,选择使用逻辑回归或者SVM的细节如下所示:
十四、大间距分类器-SVM_第15张图片

THE END

你可能感兴趣的:(机器学习,机器学习,svm)