svm 相关的一些感想

SVM的整理思路和流程:
然后到了线性分类器——>分类标准的起源:Logistic回归 —–> 函数间隔—->几何间隔

几何间隔—>求解最优化问题—-> svm的 对偶算法

若线性不可分—-> 引入核函数—>序列最小最优算法

第一层、了解SVM

支持向量机,因其英文名为support vector machine,故一般简称SVM,通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,其学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解。

1.1、分类标准的起源:Logistic回归
理解SVM,咱们必须先弄清楚一个概念:线性分类器。
给定一些数据点,它们分别属于两个不同的类,现在要找到一个线性分类器把这些数据分成两类。如果用x表示数据点,用y表示类别(y可以取1或者-1,分别代表两个不同的类),一个线性分类器的学习目标便是要在n维的数据空间中找到一个超平面(hyper plane),这个超平面的方程可以表示为( wT中的T代表转置):

可能有读者对类别取1或-1有疑问,事实上,这个1或-1的分类标准起源于logistic回归。

Logistic回归目的是从特征学习出一个0/1分类模型,而这个模型是将特性的线性组合作为自变量,由于自变量的取值范围是负无穷到正无穷。因此,使用logistic函数(或称作sigmoid函数)将自变量映射到(0,1)上,映射后的值被认为是属于y=1的概率。

假设函数
这里写图片描述

其中x是n维特征向量
这里写图片描述就是logistic函数。
图像是
svm 相关的一些感想_第1张图片

可以看到,将无穷映射到了(0,1)。
而假设函数就是特征属于y=1的概率。
这里写图片描述

从而,当我们要判别一个新来的特征属于哪个类时,只需求h(x)即可,若大于0.5就是y=1的类,反之属于y=0类。
svm 相关的一些感想_第2张图片

函数间隔 和 几何间隔

在超平面w*x+b=0确定的情况下,|w*x+b|能够表示点x到距离超平面的远近,而通过观察w*x+b的符号与类标记y的符号是否一致可判断分类是否正确,所以,可以用(y*(w*x+b))的正负性来判定或表示分类的正确性。于此,我们便引出了函数间隔(functional margin)的概念。
定义函数间隔(用r^表示)为:
这里写图片描述

未完待续

你可能感兴趣的:(机器学习)