估计各位绅士都看过我之前的KNN算法博文(嘿嘿≧◔◡◔≦,假装大家都看过),应广大博客朋友们的要求,本次博主来开车讲解如何做一个KNN分类器实现将iris数据集进行分类。关于KNN的相关知识请看机器学习——KNN及代码实现
滴滴,各位绅士请尽快上车,本次的目的地幼儿园。\ (•◡•) /,你懂的!!!
前提准备
各位绅士都上车了吧!好的,博主要将车门焊死了,不到幼儿园谁都别下车。≧◠◡◠≦✌
为了安全食用本次教程,需要准备如下:
Jupyter notebook 或 Pycharm(建议使用Jupyter notebook)
火狐浏览器或谷歌浏览器
win7或win10电脑一台
需求分析
运用经典的KNN模型对iris数据集(该数据无需下载,在scikit-learn中自带一些像iris一样的经典数据集,后面代码中会提到)进行分类。
话不多说,各位乘客坐稳了,老司机要开车了,python代码如下:
#!/usr/bin/python
# -*- coding: UTF-8 -*-
from sklearn import datasets #从sklearn模块中导入datasets
from sklearn.neighbors import KNeighborsClassifier #导入K近邻算法
from sklearn.metrics import classification_report #导入classification_report的作用是用于显示主要分类指标的文本报告,在报告中显示每个类的精确度
from sklearn.model_selection import train_test_split #导入train_test_split的作用是为了制作训练数据(training samples)和测试数据(testing samples)
import numpy as np
iris = datasets.load_iris() #加载datasets中的iris数据集,此数据集已封装好,无需任何读取文件操作
(trainData,testData,trainLabels,testLabels) = train_test_split(np.array(iris.data),iris.target,test_size=0.33,random_state=0) #调用train_test_split(),用法下面会讲
print('training data points:{}'.format(len(trainLabels))) #输出训练集数目
print('testing data points:{}'.format(len(testLabels))) #输出测试集数目
model = KNeighborsClassifier(n_neighbors=19)
model.fit(trainData,trainLabels)
predictions = model.predict(testData)
#这是整个算法核心的部分,分三步,1.创建KNeighborsClassifier对象 2.调用fit函数 3.调用predict函数进行预测
print("EVALUATION ON TESTING DATA")
print(classification_report(testLabels,predictions))
在Jupyter notebook中运行效果如下:
几个重点
1、scikit-learn是python重要的机器学习库,scikit-learn简称sklearn,支持包括分类、回归、降维、聚类四大机器学习算法,还包括特征提取、数据处理和模型评估三大模块。
2、sklearn.model_selection.train_test_split 用法:为了制作训练数据(training samples)和测试数据(testing samples),参数分别表示train_data:被划分的样本特征集、train_target:被划分的样本标签、test_size:如果是浮点数,在0-1之间,表示样本占比;如果是整数的话就是样本的数量、random_state:是随机数的种子。随机数种子:其实就是该组随机数的编号,在需要重复试验的时候,保证得到一组一样的随机数。比如你每次都填1,其他参数一样的情况下你得到的随机数组是一样的。但填0或不填,每次都会不一样。
3、在使用sklearn进行机器学习算法预测测试数据时,常用classification_report函数来进行测试的准确率的计算,相关知识鄙人会在后续博文中专门讲解。