Python的Wine数据集分类scikit-learn和K近邻实验

一、题目

请使用scikit-learn库和K近邻分类器完成Wine数据集的分类,训练比例自定。(数据下载: https://archive.ics.uci.edu/ml/datasets/Wine)

二、题目分析

这道题目就是获取数据然后分类的过程。首先在网站上下载好数据。然后回到Pycharm导入实验所需要的sklearn包,分别导入数据模块、切分训练集、测试集模块等。然后通过datasets的load_iris方法获取数据,分别用iris_x和iris_y获取data和target数据。然后通过train_test_split方法得到训练后的数据。最后实例化KNN模型,放入训练数据进行训练并且打印预测内容即可。

三、代码

from sklearn import datasets      
from sklearn.model_selection import train_test_split    
from sklearn.neighbors import KNeighborsClassifier
iris = datasets.load_iris()
iris_x = iris.data
iris_y = iris.target
print(iris_x)
print(iris_y)
x_train, x_test , y_train, y_test = train_test_split(iris_x, iris_y, test_size = 0.3)
print(y_train)
print(y_test)
knn = KNeighborsClassifier()    
knn.fit(x_train, y_train)      
print(knn.predict(x_test))           
print(y_test)     

在这里插入图片描述

四、运行结果

Python的Wine数据集分类scikit-learn和K近邻实验_第1张图片


K最近邻 (k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的 机器学习算法 之一。 该方法的思路是:在特征空间中,如果一个样本附近的k个最近 (即特征空间中最邻近)样本的大多数属于某一个类别,则该样本也属于这个类别。 用官方的话来说,所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。

Scikit-learn(以前称为scikits.learn,也称为sklearn)是针对Python 编程语言的免费软件机器学习库 。它具有各种分类,回归和聚类算法,包括支持向量机,随机森林,梯度提升,k均值和DBSCAN,并且旨在与Python数值科学库NumPy和SciPy联合使用。

NumPy(Numerical Python)是Python的一种开源的数值计算扩展。这种工具可用来存储和处理大型矩阵,比Python自身的嵌套列表(nested list structure)结构要高效的多(该结构也可以用来表示矩阵(matrix)),支持大量的维度数组与矩阵运算,此外也针对数组运算提供大量的数学函数库。

一个用python实现的科学计算,包括:1、一个强大的N维数组对象Array;2、比较成熟的(广播)函数库;3、用于整合C/C++和Fortran代码的工具包;4、实用的线性代数、傅里叶变换和随机数生成函数。numpy和稀疏矩阵运算包scipy配合使用更加方便。

NumPy(Numeric Python)提供了许多高级的数值编程工具,如:矩阵数据类型、矢量处理,以及精密的运算库。专为进行严格的数字处理而产生。多为很多大型金融公司使用,以及核心的科学计算组织如:Lawrence Livermore,NASA用其处理一些本来使用C++,Fortran或Matlab等所做的任务。

NumPy 的前身为 Numeric ,最早由 Jim Hugunin 与其它协作者共同开发,2005 年,Travis Oliphant 在 Numeric 中结合了另一个同性质的程序库 Numarray 的特色,并加入了其它扩展而开发了 NumPy。NumPy 为开放源代码并且由许多协作者共同维护开发。

你可能感兴趣的:(杂7杂8,python,分类,scikit-learn,近邻)