(一)感知机与python代码实现

参考李航老师的《统计学习方法》第二版

知识点:

  • 感知机是二分类的线性分类模型,属于判别模型
  • 旨在求出将训练数据进行线性划分的分离超平面,目标求得一个超平面将正负例完全正确分开
  • 基于误分类的损失函数:L(w,b) = -∑yi(w·xi+b)  这里xi是误分类的点损失函数是非负的,对应误分类点到分离超平面的总距离,如果没有误分类的点,损失函数的值为0
  • 利用随机梯度下降法对损失函数进行极小化。首先任意选取一个超平面w0,b0,然后采用梯度下降法不断极小化损失函数,极小化过程不是一次使所有误分类点的梯度下降,而是一次随机选取一个误分类点使其梯度下降
  • 当训练数据集线性可分时,感知机学习算法原始形式迭代是收敛
  • 感知机算法存在无穷多个解,这些解依赖初值的选择、迭代过程中误分类点的选择顺序

原始形式算法:

  1. 选取初值:w0,b0
  2. 在训练集中选取一个数据(xi,yi)
  3. 判断是否误分类,如果误分类即yi(w·xi+b)<=0,则调整参数w和b:w=w+ηyixi    b=b+ηyi
  4. 转至第2步,直到不存在误分类点

原始形式代码实现:

from sklearn.datasets import load_iris
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
'''数据准备'''
# 鸢尾花数据集
iris = load_iris()
data = pd.DataFrame(iris.data, columns=iris.feature_names)
X = np.array(data.iloc[:100, [0, 1]])
y = iris.target[:100]
y = [-1 if i==0 else 1 for i in y]
# 数据集可视化
plt.scatter(X[0:50, 0], X[0:50, 1], c="red", marker="x")
plt.scatter(X[50:100, 0], X[50:100, 1], c="green")

(一)感知机与python代码实现_第1张图片

'''参数初始化'''
w = np.array([0,0])
b = 0
learning_rate = 1


'''定义损失函数'''
def loss_func(x,y,w,b):
    loss = y*(np.dot(w,x)+b)
    return loss


'''梯度下降函数'''
def gradient_func(x,y,w,b):
    w = w + learning_rate*y*x
    b = b + learning_rate*y
    return w,b


'''模型训练'''
def train(X,y,w,b):
    mistake = []
    for i,x in enumerate(X):
        loss = loss_func(x,y[i],w,b)
        if loss<=0:
            w,b=gradient_func(x,y[i],w,b)
            mistake.append(1)
    return w,b,mistake



sum_mistake = 1
while (sum_mistake>0):
    w,b,mistake = train(X,y,w,b)
    sum_mistake = np.sum(mistake)
print("finish")


'''可视化结果'''
print("w:",w)
print("b:",b)
x = np.linspace(4, 7, 10)
y = -(w[0] * x + b) / w[1] 
plt.plot(x, y)
plt.scatter(X[:50, 0], X[:50, 1])
plt.scatter(X[50:100, 0], X[50:100, 1])
plt.xlabel('feature1')
plt.ylabel('feature2')
w: [  79.8 -101.4]
b: -126

(一)感知机与python代码实现_第2张图片

你可能感兴趣的:(机器学习笔记,python,机器学习,数据挖掘,算法)