机器学习——支持向量机的训练

目录

实践SVM分类

测试1-1​编辑

测试1-2

SVM核心

支持向量机函数

 分类器SVC的主要属性:

 分类器SVC的主要方法:

 回归器SVR的主要属性:

 支持向量机在鸢尾花分类中的应用


实践SVM分类

(1)参数C的选择:
C为惩罚系数,也称为正则化系数:
C越小模型越受限(即单个数据对模型的影响越小),模型越简单;

C越大每个数据点对模型的影响越大,模型越复杂。
(2)参数gamma的选择:
gamma值越小,RBF内核的直径越大,有更多的点被模型圈进决定边界中,因此边界越圆滑;
gamma越小模型倾向于欠拟合;gamma越大模型倾向于过拟合,

适合在数据集上训练模型,但是在处理未知数据时可能有很高的泛化误差。

测试1-1
机器学习——支持向量机的训练_第1张图片

测试题解析请参考以下文章 :

机器学习——回归问题中的曲线过拟合问题_肉肉肉肉肉肉~丸子的博客-CSDN博客机器学习——梯度下降法_肉肉肉肉肉肉~丸子的博客-CSDN博客

机器学习——正则化的线性模型_肉肉肉肉肉肉~丸子的博客-CSDN博客

机器学习——支持向量机的训练_第2张图片 

测试1-2

机器学习——支持向量机的训练_第3张图片 测试题解析请参考以下文章 :

机器学习——L1范数充当正则项,让模型获得稀疏解,解决过拟合问题_肉肉肉肉肉肉~丸子的博客-CSDN博客

 机器学习——线性模型之Softmax回归_肉肉肉肉肉肉~丸子的博客-CSDN博客

机器学习——最大最小归一化_肉肉肉肉肉肉~丸子的博客-CSDN博客

 机器学习——支持向量机的训练_第4张图片

SVM核心

SVM的核心是结构风险最小化原则:
(1)对于确定VC维的函数子集,可以找到经验风险最小的函数;
(2)对于给定的经验风险,得到的判别函数使得置信范围最小,即能达到这个经验风险最简单的函数。
 

机器学习——支持向量机的训练_第5张图片

 (1)标准的SVM仅可处理线性二分类问题;
(2)改进的模型可处理非线性问题,包括多分类SVM、概率SVM、最小二乘SVM、结构化SVM、多核SVM等。

(3)扩展算法还包括支持向量回归、支持向量聚类、半监督支持向量机等。

支持向量机函数

机器学习——支持向量机的训练_第6张图片

 机器学习——支持向量机的训练_第7张图片机器学习——支持向量机的训练_第8张图片

 

 分类器SVC的主要属性:

机器学习——支持向量机的训练_第9张图片

 分类器SVC的主要方法:

机器学习——支持向量机的训练_第10张图片

 回归器SVR的主要属性:

机器学习——支持向量机的训练_第11张图片

 支持向量机在鸢尾花分类中的应用

机器学习——支持向量机的训练_第12张图片

 

你可能感兴趣的:(机器学习,机器学习,支持向量机,算法)