机器学习课程笔记---支持向量机

引言

机器学习三种方法:
1、经典的参数估计方法
局限性是需要样本的先验分布
2、非线性方法,如ann
局限性是全靠经验,缺少理论
3、统计学习理论针对小样本

误差:
1、一般误差
真实误差
2、经验误差
来自样本

机器学习的目标是最小化一般误差,但是实际都是最小化经验误差
机器学习课程笔记---支持向量机_第1张图片
支持向量机同时最小化经验风险和置信风险。

vc维大,则拟合函数的维度高。

svm

基本型

机器学习课程笔记---支持向量机_第2张图片
这里的泛化能力最大就是说,正负类间隔最大。

机器学习课程笔记---支持向量机_第3张图片

机器学习课程笔记---支持向量机_第4张图片

机器学习课程笔记---支持向量机_第5张图片

对偶问题

机器学习课程笔记---支持向量机_第6张图片
变成求aerfa。

解决不可分问题

映射
机器学习课程笔记---支持向量机_第7张图片
但是样本原来就是高维的怎么办?

因此引出了
机器学习课程笔记---支持向量机_第8张图片
机器学习课程笔记---支持向量机_第9张图片
常用的核
机器学习课程笔记---支持向量机_第10张图片
效果
机器学习课程笔记---支持向量机_第11张图片

泛化问题

机器学习课程笔记---支持向量机_第12张图片
为了追求泛化能力强,可以容忍一个半个的样本错误。

被错分的样本离分解面的距离为kesai,然后把这些松弛变量的和最小。
机器学习课程笔记---支持向量机_第13张图片

与神经网络相比

机器学习课程笔记---支持向量机_第14张图片

神经网络的模型黑盒导致很多严谨的地方不能用。比如航天。同时,比如dropout的存在让可复现性差。

你可能感兴趣的:(Machine,Learning,#,课堂笔记,机器学习)