SVM核函数选择和调参

https://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf


Andrew Ng给的建议:

n:特征的维度

m:训练集的条数

1、n相对m很大时,如n=10000,m = 10,......,1000

建议用逻辑回归或者SVM(不带核函数即线性核)

2、n比较小,m居中,如n=1-1000,m=10,......,10000

建议使用带高斯核(rbf,径向基函数)的SVM

我这边n比较小,m在十几万的样子,又没法增加标签做到线性可分,所以用第二个,高斯核

3、n比较小,m很大,如n=1-1000,m=50000+

新增更多的特征,然后使用逻辑回归或SVM(不带核函数即线性核)

    Apparently, when the number of features is very large, one may not need to map the data.That is, the nonlinear mapping does not improve the performance.Using the linear kernel is good enough, and one only searches for the parameter C.

你可能感兴趣的:(机器学习笔记集)