机器学习第十周 SVM 支持向量机

机器学习第十周 支持向量机SVN

学习目标

知识点描述:致敬真神:支持向量机

学习目标:

  • SVM算法原理及数学推导
  • ​ * SVM算法中的核函数
  • ​ * SVM算法解决分类问题及回归问题

学习内容

入门支持向量机1:图文详解SVM原理与模型数学推导

入门支持向量机2:软间隔与sklearn中的SVM

入门支持向量机3:巧妙的Kernel Trick

入门支持向量机4:多项式核函数与RBF核函数代码实现及调参

入门支持向量机5:回归问题及系列回顾总结

学习ING

支持向量机SVM:

支持向量:将最优决策边界向上或向下平移,在遇到第一个点时停下来,这个点被称为支持向量。支持向量到决策边界的距离是d,这两条后移的直线的间隔2d被称为最大间隔Margin.

支持向量:就是支撑着两条平移边界的点
点 到 直 线 的 距 离 : d = ∣ A x + B y + C ∣ A 2 + B 2 点到直线的距离:d=\frac{|Ax+By+C|}{\sqrt{A^2+B^2}} 线d=A2+B2 Ax+By+C

扩 展 到 n 维 空 间 : 点 到 w T x + b = 0 , w 是 n 维 向 量 , b 是 截 距 : d = w T + b ∣ ∣ w ∣ ∣ , ∣ ∣ w ∣ ∣ 为 向 量 的 模 扩展到n维空间:点到w^Tx+b=0,w是n维向量,b是截距:d=\frac{w^T+b}{||w||} ,||w||为向量的模 nwTx+b=0,wnbd=wwT+b,w

机器学习第十周 SVM 支持向量机_第1张图片

最大化margin,
m a x 2 ∣ w T x + b ∣ ∣ ∣ w ∣ ∣ , 也 就 是 m a x 2 ∣ ∣ w ∣ ∣ max\frac{2|w^Tx+b|}{||w||},也就是max\frac{2}{||w||} maxw2wTx+b,maxw2

转 换 后 , 求 m i n { 1 2 w T w } , 条 件 y ( i ) ( w T x ( i ) + b ) ≥ 1 转换后,求min\{\frac{1}{2}w^Tw\}, 条件 y^{(i)}(w^Tx^{(i)}+b)\geq 1 min{21wTw},y(i)(wTx(i)+b)1

推导公式:

在考虑泛化时,选取更佳的分类模型.

打卡链接:

【腾讯文档】机器学习小组第十周(20200427-20200503)

https://docs.qq.com/form/fill/DRlJUT3FQcmJSSWty?_w_tencentdocx_form=1

你可能感兴趣的:(机器学习)