Scikit-learn-classifier-macOS-案例-机器学习

撰写简单的分类器逻辑,了解分类器接口标准,深入理解机器学习过程

准备工作

可以继续使用前一篇pipline文章的项目,如果没有请参照它的准备工作部分
Scikit-learn-pipeline-macOS-案例-机器学习
需要下载安装Python 3.x
从终端安装Pip、Virtualenv并创建项目和初始化、激活虚拟环境
从终端安装Numpy和Scipy,Scikit-learn等第三方模块

sudo easy_install pip
sudo pip install --upgrade virtualenv 
mkdir ~/desktop/myapp
sudo virtualenv --system-site-packages -p python3 ~/venv
cd ~/desktop/myapp
source ./venv/bin/activate
sudo pip install numpy scipy
pip install -U scikit-learn

创建iris3.py文件,包含以下内容

#导入数据集(在这里共计150条)
from sklearn import datasets
iris=datasets.load_iris()

#特征和标签
X=iris.data
y=iris.target

#将数据划分为训练数据和测试数据,测试数据占一半即0.5(75条)
from sklearn.cross_validation import train_test_split
X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.5)

#创建分类器classifier
from sklearn.neighbors import KNeighborsClassifier
my_classifier=KNeighborsClassifier()

#训练数据
my_classifier.fit(X_train,y_train)

#使用训练好的分类器模型进行预测实验
predictions=my_classifier.predict(X_test)

#计算精确度
from sklearn.metrics import accuracy_score
print(accuracy_score(y_test,predictions))

从终端环境(venv)运行

python iris3.py

正常输出0.9x数字

分类器接口

classfier类应该至少有两个方法.fit用来训练和.predict用来预测
修改创建分类器部分的代码,去掉from sklearn.neighbors...一行,增加自定义分类器MyClassifier并使用它my_classifier=MyClassifier()

#创建分类器classifier
class MyClassifier():
    def fit(self,xtrain,ytrain):
        pass #暂时什么也不做
    def predict(self,xtest):
        pass #暂时什么也不做
    
my_classifier=MyClassifier()

如果现在运行它将报错,因为fit和predict并没有正确返回接口需要格式的数据(实际上pass什么都不执行)

随机分类器

如果给你很多鸢尾花的训练数据(比如第一朵花萼长宽3,2.1花瓣长宽4,3.2,属于setosa,第二朵...),然你自己分析这些数据从中找出每种鸢尾花的特征。

稍后,再给你一些鸢尾花的新数据(这次数据中不再告诉你每一朵是哪种鸢尾花,只有4个长宽数据),你需要评估出每朵花属于[setosa,versicolor,virginica]三种中的哪一种?

这时候,最简单的方法恐怕就是乱猜,就如同有人问你花萼长宽2.2,3花瓣长宽2.7,4这样的鸢尾花属于哪一种?你大脑都不过的就说出了versicolor。即使这样,你仍然有33%的可能猜对,不是吗?

修改我们的代码,实现随机分类器

import random #导入随机模块
#创建分类器classifier
class MyClassifier():
    def fit(self,xtrain,ytrain):
        self.X_train=xtrain #把训练数据xtrain变成自身的属性,以便于在后续predict方法中使用
        self.y_train=ytrain #把训练可能ytrain变成自身的属性,以便于后续使用
        #这里的ytrain就是[setosa,versicolor,virginica]数组
    def predict(self,xtest):
        my_predictions=[] #对多条数据预测出的结果数组,如第一朵versicolor,第二朵setosa,第三...
        for row in xtest: #对每一条数据进行预测
            label=random.choice(self.y_train) #随机选择一种鸢尾花类型
            my_predictions.append(label) #把预测出的类型放入数组
        return my_predictions #返回预测出的结果数组
    
my_classifier=MyClassifier()

然后在终端运行

python iris3.py

应该输出精确度是0.3x左右(多试几次)

最近邻分类器原理

最近邻算法(Nearest Neighbor algorithm)是根据距离来评估数据所属类型的算法。


Scikit-learn-classifier-macOS-案例-机器学习_第1张图片

如图所示,绿色和红色代表我们的训练数据(因此我们知道它们属于哪种颜色类型),二灰色是我们要评估的测试新数据,我们不知道它该属于绿色还是属于红色。
简单的想法是,我们计算灰色点到其他所有点的距离,找到距离它最近的点,如果这个最近点是绿色,那么我们就认为灰色点是绿色,如下图


Scikit-learn-classifier-macOS-案例-机器学习_第2张图片

相反,如果距离最近点是红色,我们就认为灰色点应该是红色,如下图
Scikit-learn-classifier-macOS-案例-机器学习_第3张图片

特征即坐标

在平面纸上,每一个点有两个位置特征(横向x,竖向y);在三维空间,每一个点有三个位置特征(x,y,z)。

请把思想打开!
在鸢尾花分类空间中,每一朵鸢尾花有四个位置特征(花萼的长度、宽度和花瓣的长度、宽度),尽管我们没法画出这个空间,但不妨碍我们想象它存在。

在这个空间中,每一朵鸢尾花处在不同的位置,假想属于setosa类型的鸢尾花都分布在空间右上区域,属于versicolor类型的都在左上区域,属于virginica都在中间偏下的区域,如下图所示(当然这不是真的)


Scikit-learn-classifier-macOS-案例-机器学习_第4张图片

如果我们有一个新的需要预测类型的花,那么我们把它放到这个空间里,找到最近邻的点花的类型,就能评估出新花的类型

计算空间距离

对于一维空间(也就是一条横线)上AB两点间的距离,就是A的位置减去B的位置。因为在一维空间,AB的位置只有一个特征(就是横向x位置)。即



当然有


对于二维平面上两点的距离,如下图


Scikit-learn-classifier-macOS-案例-机器学习_第5张图片

根据勾股定理,斜边就是两点间的距离,我们有


对于三维空间中两点的距离,同样我们有以下公式(可自行画图体会)


鸢尾花数据空间有四个维度(花萼长a宽b和花瓣长c宽d),同样我们有以下公式计算两朵花数据之间的距离


编写最近邻分类器

修改代码,去掉import random行;为分类器定义新的closest方法,用来计算新花朵到所有训练数据花朵的最近距离,修改label=self.closest(row)替换随机方法。

X_train训练数据,与之对应的y_train包含了每个训练花朵的类型,这是已知的,所以找到最近的花,就知道它的类型,进而评估新花的类型
代码如下

#import random #导入随机模块
from scipy.spatial import distance #导入距离计算模块

#创建分类器classifier
class MyClassifier():
    def fit(self,xtrain,ytrain):
        self.X_train=xtrain #把训练数据xtrain变成自身的属性,以便于在后续predict方法中使用
        self.y_train=ytrain #把训练可能ytrain变成自身的属性,以便于后续使用
        #这里的ytrain就是[setosa,versicolor,virginica]数组
    def predict(self,xtest):
        my_predictions=[] #对多条数据预测出的结果数组,如第一朵versicolor,第二朵setosa,第三...
        for row in xtest: #对每一条数据进行预测
            label=self.closest(row) #获取最近点类型,closest方法在下面定义
            my_predictions.append(label) #把预测出的类型放入数组
        return my_predictions #返回预测出的结果数组
    def closest(self,row):
        best_dist=distance.euclidean(row,self.X_train[0])  #计算到第一个点的距离
        best_index=0 #假设第一个点就是最近的,下面会修正
        for i in range(1,len(self.X_train)):
            dist=distance.euclidean(row,self.X_train[i]) #计算训练数据中每个点到新点的距离
            if(dist

再次运行

python iris3.py

可以看到输出的精确度明显从原来的0.3x提高到0.9x


探索人工智能的新边界

如果您发现文章错误,请不吝留言指正;
如果您觉得有用,请点喜欢;
如果您觉得很有用,感谢转发~


END

你可能感兴趣的:(Scikit-learn-classifier-macOS-案例-机器学习)