SVM和LR的适用情况,SVM中核函数的作用。

在Andrew Ng的机器学习视频中提到SVM和logistic回归的适用情形:
m是样本数,n是特征的数目
1、如果n相对于m来说很大,则使用logistic回归或者不带核函数的SVM(线性分类)
2、如果n很小,m的数量适中(n=1-1000,m=10-10000),使用带核函数的SVM算法
3、如果n很小,m很大(n=1-1000,m=50000+),增加更多的特征,然后使用logistic回归或者不带核函数的SVM。

SVM中的核函数思想:

通过一个非线性变换将输入空间映射到一个特征空间;使得在输入空间中的超曲面模型对应于特征空间中的超平面模型;这样,分类问题的学习任务通过在特征空间中求解先行支持向量机就可以完成。

常用核函数:

线性核  

多项式核

高斯核

sigmoid核

拉普卡斯核

此外还可以组合核函数得到:核函数的线性组合也是核函数,核函数的直积也是核函数。

 

你可能感兴趣的:(机器学习)