谈谈SVM和SVR的区别

        支持向量机(SVM)本身是针对二分类问题提出的,而SVR(支持向量回归)是SVM(支持向量机)中的一个重要的应用分支。SVR回归与SVM分类的区别在于,SVR的样本点最终只有一类,它所寻求的最优超平面不是SVM那样使两类或多类样本点分的“最开”,而是使所有的样本点离着超平面的总偏差最小。

        SVM是要使到超平面最近的样本点的“距离”最大;

        SVR则是要使到超平面最远的样本点的“距离”最小。

谈谈SVM和SVR的区别_第1张图片
参考链接:https://www.jianshu.com/p/399ddcac2178

 

好多以前的只是都忘了,顺便复习一下:

SVM松弛变量与惩罚函数

谈谈SVM和SVR的区别_第2张图片

https://blog.csdn.net/minhuaqaq/article/details/93344271

更多的SVM和SVR详情可参考这篇文章,写的很全:

https://www.cnblogs.com/wuxiangli/p/6831229.html(SVM柔性边界的补充和SVR(支持向量回归))

sklearn练习代码:

https://github.com/youngxiao/SVM-demo

 

你可能感兴趣的:(机器学习,算法,知识点总结)