任务描述
本关任务:使用感知机算法建立一个模型,并根据感知机算法流程对模型进行训练,得到一个能够准确对西瓜好坏进行识别的模型。
相关知识
为了完成本关任务,你需要掌握:1.什么是感知机,2.感知机算法流程。
数据介绍
这里,我们利用西瓜书上的例子来构造数据,实例中包括特征和类别。一共构造了帮助预测的特征一共有 30 个:色泽、根蒂、敲声等等。类别为是好瓜与不是好瓜。部分数据如下:
由于我们的模型只能对数字进行计算。所以,我们用x1表示色泽,x2表示根蒂,x3表示敲声 。y 表示类别。 其中,x1= 0,表示青绿,x2= 2,表示稍蜷, y=-1,表示不是好瓜。具体如下图:
而我们的任务就是,用感知机算法建立一个模型,利用训练集上的数据对模型进行训练,并对测试集上的数据进行分类。
什么是感知机
我们知道神经网络是由一个个的神经元所组成的,我们知道了神经元的工作原理,就能帮助我们理解神经网络是如何工作的了。上个世纪六十年代,提出了最早的“人造神经元”模型,叫做“感知机”,直到今天还在用。感知机与逻辑回归一样,也是一个二分类模型,那么它又是如何进行预测的呢?
假如,我们希望构建一个感知机模型,根据色泽、根蒂、敲声这三个特征来判断是好瓜还是坏瓜。
比如说,输入的特征值分别是青绿,蜷缩,浊响对应特征向量为 (0,0,0)。感知机模型会将每一个特征值xi乘以一个对应的权重wi,再加上一个偏置 b,所得到的值如果大于等于 0,则判断为 +1 类别,即为好瓜,如果得到的值小于 0,则判断为 -1 类别,即不是好瓜。数学模型如下:
f(x)=sign(w1x1+w2x2+..+wnxn+b)
sign={−1+1x<0x≥0
其中xi为第 i 个特征值,wi为第 i 个特征所对应的权重,b 为偏置。
感知机算法流程
我们能否正确对西瓜好坏进行预测,完全取决于权重与偏置的值是否正确,那么如何找到正确的参数呢?方法与逻辑回归相似,这里就不重复叙述,唯一不同的就是感知机模型所用的损失函数。
那么,感知机使用的损失函数是怎么样的呢? 感知机采用的损失函数最初采用的是误分类点到决策边界的距离:
∣∣w∣∣∣w.x+b∣
而对于误分类的数据(xi,yi)来说:
{yi=+1yi=−1w.xi+b<0w.xi+b≥0
所以,∣w.xi+b∣=−yi(w.xi+b) 又因为:
L(w,b)=−sumxiinMyi(w.xi+b)
其中M
为误分类点的集合感知机只针对误分类的点对参数进行更新,算法流程如下:
选取初始值 w0,b0;
在训练集中选取数据xi,yi;
如果yi(w.xi+b)≤0,即这个点为误分类点,则进行如下更新(η为学习率,为0到1之间的值): w=w−η∂w∂l(w,b)=w+ηyixi b=b−η∂b∂l(w,b)=b+ηyi
重复 2,3 直到训练集中没有误分类点
编程要求
根据提示,在右侧编辑器中的 begin-end 之间补充 python 代码,构建一个感知机模型,底层代码会调用您实现的感知机模型进行训练,并对测试集上数据进行分类。
测试说明
程序内部会检测您的代码,预测正确率大于 0.8 则视为过关。
#encoding=utf8
import numpy as np
#构建感知机算法
class Perceptron(object):
def __init__(self, learning_rate = 0.01, max_iter = 200):
self.lr = learning_rate
self.max_iter = max_iter
def fit(self, data, label):
'''
input:data(ndarray):训练数据特征
label(ndarray):训练数据标签
output:w(ndarray):训练好的权重
b(ndarry):训练好的偏置
'''
#编写感知机训练方法,w为权重,b为偏置
self.w = np.array([1.]*data.shape[1])
self.b = np.array([1.])
#********* Begin *********#
i = 0
while i < self.max_iter:
flag = True
for j in range(len(label)):
if label[j] * (np.inner(self.w, data[j]) + self.b) <= 0:
flag = False
self.w += self.lr * (label[j] * data[j])
self.b += self.lr * label[j]
if flag:
break
i+=1
#********* End *********#
def predict(self, data):
'''
input:data(ndarray):测试数据特征
output:predict(ndarray):预测标签
'''
#********* Begin *********#
y = np.inner(data, self.w) + self.b
# np.inner(a,b) 两个数组的内积
for i in range(len(y)): # range(0,6)
# print(list(range(0,6))) --> [0, 1, 2, 3, 4, 5]
if y[i] >= 0:
y[i] = 1
else:
y[i] = -1
predict = y
#********* End *********#
return predict
任务描述
本关任务:利用 sklearn 构建感知机算法,并利用癌细胞数据对模型进行训练,然后对未知的癌细胞数据进行识别。
相关知识
为了完成本关任务,你需要掌握:1. Perceptron。
数据集介绍
乳腺癌数据集,其实例数量是 569,实例中包括诊断类和属性,帮助预测的属性一共 30 个,各属性包括为 radius 半径(从中心到边缘上点的距离的平均值), texture 纹理(灰度值的标准偏差)等等,类包括:WDBC-Malignant 恶性和 WDBC-Benign 良性。用数据集的 80% 作为训练集,数据集的 20% 作为测试集,训练集和测试集中都包括特征和诊断类。
想要使用该数据集可以使用如下代码:
import pandas as pd
#获取训练数据
train_data = pd.read_csv('./step2/train_data.csv')
#获取训练标签
train_label = pd.read_csv('./step2/train_label.csv')
train_label = train_label['target']
#获取测试数据
test_data = pd.read_csv('./step2/test_data.csv')
数据集中部分数据与标签如下图所示:
Perceptron
在 sklearn 中,使用 Perceptron 方法实现感知机算法,Perceptron 的构造函数中有两个常用的参数可以设置:
和 sklearn 中其他分类器一样, Perceptron 类中的 fit 函数用于训练模型, fit 函数有两个向量输入:
X :大小为 [样本数量,特征数量] 的 ndarray,存放训练样本;
Y :值为整型,大小为 [样本数量] 的 ndarray,存放训练样本的分类标签。
Perceptron 类中的 predict 函数用于预测,返回预测标签, predict 函数有一个向量输入:
X :大小为[样本数量,特征数量]的 ndarray ,存放预测样本。
Perceptron 的使用代码如下:
from sklearn.linear_model.perceptron import Perceptron
clf = Perceptron()
clf.fit(X_train, Y_train)
result = clf.predict(X_test)
编程要求
在 begin-end 之间补充代码,使用 sklearn 构建感知机模型,利用训练集数据与训练标签对模型进行训练,然后使用训练好的模型对测试集数据进行预测,并将预测结果保存到./step2/result.csv
中。保存格式如下:
测试说明
我们会获取你的预测结果与真实标签对比,预测正确率高于 90% 视为过关。
#encoding=utf8
import os
if os.path.exists('./step2/result.csv'):
os.remove('./step2/result.csv')
#********* Begin *********#
import pandas as pd
#获取训练数据
train_data = pd.read_csv('./step2/train_data.csv')
#获取训练标签
train_label = pd.read_csv('./step2/train_label.csv')
train_label = train_label['target']# 取标签为target的一列
#获取测试数据
test_data = pd.read_csv('./step2/test_data.csv')
from sklearn.linear_model.perceptron import Perceptron
clf = Perceptron(eta0 = 0.01,max_iter = 200)
# 如果采用默认参数,预测正确率仅50%,不能达到过关标准
# 0.01,200的参数设置是参照感知机第一关设计
# max_iter = 1000,eta0 = 0.1, random_state = 666 为另一种参数设置参考
# 上述两种都可过关
clf.fit(train_data, train_label)
result = clf.predict(test_data)
frameResult = pd.DataFrame({'result':result})
frameResult.to_csv('./step2/result.csv', index = False)
#********* End *********#