机器学习 --- 感知机

第1关:感知机 - 西瓜好坏自动识别

任务描述

本关任务:使用感知机算法建立一个模型,并根据感知机算法流程对模型进行训练,得到一个能够准确对西瓜好坏进行识别的模型。

相关知识

为了完成本关任务,你需要掌握:1.什么是感知机,2.感知机算法流程。

数据介绍

这里,我们利用西瓜书上的例子来构造数据,实例中包括特征和类别。一共构造了帮助预测的特征一共有 30 个:色泽、根蒂、敲声等等。类别为是好瓜与不是好瓜。部分数据如下:

机器学习 --- 感知机_第1张图片

由于我们的模型只能对数字进行计算。所以,我们用x1​表示色泽,x2​表示根蒂,x3​表示敲声 。y 表示类别。 其中,x1​= 0,表示青绿,x2​= 2,表示稍蜷, y=-1,表示不是好瓜。具体如下图:

机器学习 --- 感知机_第2张图片

而我们的任务就是,用感知机算法建立一个模型,利用训练集上的数据对模型进行训练,并对测试集上的数据进行分类。

什么是感知机

我们知道神经网络是由一个个的神经元所组成的,我们知道了神经元的工作原理,就能帮助我们理解神经网络是如何工作的了。上个世纪六十年代,提出了最早的“人造神经元”模型,叫做“感知机”,直到今天还在用。感知机与逻辑回归一样,也是一个二分类模型,那么它又是如何进行预测的呢?

假如,我们希望构建一个感知机模型,根据色泽、根蒂、敲声这三个特征来判断是好瓜还是坏瓜。

机器学习 --- 感知机_第3张图片

比如说,输入的特征值分别是青绿,蜷缩,浊响对应特征向量为 (0,0,0)。感知机模型会将每一个特征值xi​乘以一个对应的权重wi​,再加上一个偏置 b,所得到的值如果大于等于 0,则判断为 +1 类别,即为好瓜,如果得到的值小于 0,则判断为 -1 类别,即不是好瓜。数学模型如下:

f(x)=sign(w1​x1​+w2​x2​+..+wn​xn​+b)

sign={−1+1​x<0x≥0​

其中xi​为第 i 个特征值,wi​为第 i 个特征所对应的权重,b 为偏置。

感知机算法流程

我们能否正确对西瓜好坏进行预测,完全取决于权重与偏置的值是否正确,那么如何找到正确的参数呢?方法与逻辑回归相似,这里就不重复叙述,唯一不同的就是感知机模型所用的损失函数。

机器学习 --- 感知机_第4张图片

那么,感知机使用的损失函数是怎么样的呢? 感知机采用的损失函数最初采用的是误分类点到决策边界的距离:

∣∣w∣∣∣w.x+b∣​

而对于误分类的数据(xi​,yi​)来说:

{yi​=+1yi​=−1​w.xi​+b<0w.xi​+b≥0​

所以,∣w.xi​+b∣=−yi​(w.xi​+b) 又因为:

  • ∣∣w∣∣1​ 不影响 -y(w.x+b) 正负的判断,我们只需要判断 -y(wx+b) 的正负来判断分类的正确与否。所以 1/||w|| 对感知机学习算法的中间过程可有可无。
  • ∣∣w∣∣1​ 不影响感知机学习算法的最终结果。因为感知机学习算法最终的终止条件是所有的输入都被正确分类,即不存在误分类的点。则此时损失函数为 0。对应于∣∣w∣∣−y(wx+b)​ ,即分子为 0。则可以看出∣∣w∣∣1​ 对最终结果也无影响。所以最后采用的损失函数为:

    L(w,b)=−sumxi​inM​yi​(w.xi​+b)

    其中M为误分类点的集合

感知机只针对误分类的点对参数进行更新,算法流程如下:

  1. 选取初始值 w0​,b0​;

  2. 在训练集中选取数据xi​,yi​;

  3. 如果yi​(w.xi​+b)≤0,即这个点为误分类点,则进行如下更新(η为学习率,为0到1之间的值): w=w−η∂w∂l(w,b)​=w+ηyi​xi​ b=b−η∂b∂l(w,b)​=b+ηyi​

  4. 重复 2,3 直到训练集中没有误分类点

编程要求

根据提示,在右侧编辑器中的 begin-end 之间补充 python 代码,构建一个感知机模型,底层代码会调用您实现的感知机模型进行训练,并对测试集上数据进行分类。

测试说明

程序内部会检测您的代码,预测正确率大于 0.8 则视为过关。

#encoding=utf8
import numpy as np
#构建感知机算法
class Perceptron(object):
    def __init__(self, learning_rate = 0.01, max_iter = 200):
        self.lr = learning_rate
        self.max_iter = max_iter
    def fit(self, data, label):
        '''
        input:data(ndarray):训练数据特征
              label(ndarray):训练数据标签
        output:w(ndarray):训练好的权重
               b(ndarry):训练好的偏置
        '''
        #编写感知机训练方法,w为权重,b为偏置
        self.w = np.array([1.]*data.shape[1])
        self.b = np.array([1.])
        #********* Begin *********#
        i = 0
        while i < self.max_iter:
            flag = True
            for j in range(len(label)):
                if label[j] * (np.inner(self.w, data[j]) + self.b) <= 0:
                    flag = False
                    self.w += self.lr * (label[j] * data[j])
                    self.b += self.lr * label[j]
            
            if flag: 
                break
            i+=1
        #********* End *********#
    def predict(self, data):
        '''
        input:data(ndarray):测试数据特征
        output:predict(ndarray):预测标签
        '''
        #********* Begin *********#
        y = np.inner(data, self.w) + self.b
        # np.inner(a,b) 两个数组的内积
        for i in range(len(y)): # range(0,6) 
        # print(list(range(0,6))) --> [0, 1, 2, 3, 4, 5]
            if y[i] >= 0:
                y[i] = 1
            else:
                y[i] = -1
        predict = y

        #********* End *********#
        return predict
        

第2关:scikit-learn感知机实践 - 癌细胞精准识别

任务描述

本关任务:利用 sklearn 构建感知机算法,并利用癌细胞数据对模型进行训练,然后对未知的癌细胞数据进行识别。

相关知识

为了完成本关任务,你需要掌握:1. Perceptron。

数据集介绍

乳腺癌数据集,其实例数量是 569,实例中包括诊断类和属性,帮助预测的属性一共 30 个,各属性包括为 radius 半径(从中心到边缘上点的距离的平均值), texture 纹理(灰度值的标准偏差)等等,类包括:WDBC-Malignant 恶性和 WDBC-Benign 良性。用数据集的 80% 作为训练集,数据集的 20% 作为测试集,训练集和测试集中都包括特征和诊断类。

想要使用该数据集可以使用如下代码:

 
  
  1. import pandas as pd
  2. #获取训练数据
  3. train_data = pd.read_csv('./step2/train_data.csv')
  4. #获取训练标签
  5. train_label = pd.read_csv('./step2/train_label.csv')
  6. train_label = train_label['target']
  7. #获取测试数据
  8. test_data = pd.read_csv('./step2/test_data.csv')

数据集中部分数据与标签如下图所示:

机器学习 --- 感知机_第5张图片

Perceptron

在 sklearn 中,使用 Perceptron 方法实现感知机算法,Perceptron 的构造函数中有两个常用的参数可以设置:

  • eta0:学习率大小,默认为 1.0 ;
  • max_iter:最大训练轮数。

和 sklearn 中其他分类器一样, Perceptron 类中的 fit 函数用于训练模型, fit 函数有两个向量输入:

  • X :大小为 [样本数量,特征数量] 的 ndarray,存放训练样本;

  • Y :值为整型,大小为 [样本数量] 的 ndarray,存放训练样本的分类标签。

    Perceptron 类中的 predict 函数用于预测,返回预测标签, predict 函数有一个向量输入:

  • X :大小为[样本数量,特征数量]的 ndarray ,存放预测样本。

Perceptron 的使用代码如下:

 
  
  1. from sklearn.linear_model.perceptron import Perceptron
  2. clf = Perceptron()
  3. clf.fit(X_train, Y_train)
  4. result = clf.predict(X_test)

编程要求

在 begin-end 之间补充代码,使用 sklearn 构建感知机模型,利用训练集数据与训练标签对模型进行训练,然后使用训练好的模型对测试集数据进行预测,并将预测结果保存到./step2/result.csv中。保存格式如下:

测试说明

我们会获取你的预测结果与真实标签对比,预测正确率高于 90% 视为过关。

#encoding=utf8
import os

if os.path.exists('./step2/result.csv'):
    os.remove('./step2/result.csv')

#********* Begin *********#
import pandas as pd
#获取训练数据
train_data = pd.read_csv('./step2/train_data.csv')
#获取训练标签
train_label = pd.read_csv('./step2/train_label.csv')
train_label = train_label['target']# 取标签为target的一列
#获取测试数据
test_data = pd.read_csv('./step2/test_data.csv')

from sklearn.linear_model.perceptron import Perceptron
clf = Perceptron(eta0 = 0.01,max_iter = 200)
# 如果采用默认参数,预测正确率仅50%,不能达到过关标准
# 0.01,200的参数设置是参照感知机第一关设计
# max_iter = 1000,eta0 = 0.1, random_state = 666 为另一种参数设置参考
# 上述两种都可过关
clf.fit(train_data, train_label)
result = clf.predict(test_data)

frameResult = pd.DataFrame({'result':result})
frameResult.to_csv('./step2/result.csv', index = False)

#********* End *********#


你可能感兴趣的:(机器学习,机器学习,逻辑回归,算法)