SVM原理_SVM分类和回归预测中的python代码实现


说起SVM,应该是机器学习中非常典型的算法,但理解也是比较难的,因此直接看博主july的《支持向量机通俗导论(理解SVM的三层境界)》https://www.cnblogs.com/v-July-v/archive/2012/06/01/2539022.html, 讲的非常全面和细致,看完之后基本上就理解了。

今天晚上有点恼火,花60大洋买了一本书,越来越替某些出书的作者担忧(真想说一句,闭上你TM的那张臭嘴,别用良心去转版权费),写的真的是太糟糕了…….不知到是什么支撑它写下去的。不说了,回到上面的内容。

但还是要说几点注意事项:
(1)支持向量机它输出的不是分类概率,而是一个分类

y=wTx+by=wTx+b

如果y>0 ,则是正分类,反之是负分类

看完理论,感觉非常全面和复杂,但是,我们终究要回到应用上,也不用重复造轮子,我们直接使用sklearn库,它已经帮我们封装好了。svm可以解决两类问题:分类,回归

(1)分类
注:使用了SVC

import numpy as np
from sklearn import svm

X = np.array([[-1, -1], [-2, -1], [1, 1], [2, 1]])
y = np.array([1, 1, 2, 2])
clt = svm.SVC()
clt.fit(X, y)

print clt.predict([[-0.8, -1]])
# /usr/bin/python2.7 /home/SVM/SVM.py
# [1]
# Process finished with exit code 0
   
   
   
   
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

(2)回归

其实sklearn 已经分装的特别好,这里对于回归调用了不同给的核,使用改了SVR,

from sklearn import svm
X = [[0, 0], [2, 2]]
y = [0.5, 2.5]
clf = svm.SVR()
clf.fit(X, y)
print clf.predict([[1, 1]])

# [ 1.5]
   
   
   
   
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

你可能感兴趣的:(SVM)