利用KNN对鸢尾花数据进行分类

利用KNN对鸢尾花数据进行分类

**KNN(K-Nearest Neighbor)工作原理:存在一个样本数据集合,也称为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类对应的关系。输入没有标签的数据后,将新数据中的每个特征与样本集中数据对应的特征进行比较,提取出样本集中特征最相似数据(最近邻)的分类标签。一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k近邻算法中k的出处,通常k是不大于20的整数。最后选择k个最相似数据中出现次数最多的分类作为新数据的分类。

说明:KNN没有显示的训练过程,它是“懒惰学习”的代表,它在训练阶段只是把数据保存下来,训练时间开销为0,等收到测试样本后进行处理。**

直接附上代码:

from sklearn.datasets import load_iris
iris = load_iris()# 查验数据规模。
iris.data.shape

利用KNN对鸢尾花数据进行分类_第1张图片

from sklearn.cross_validation import train_test_split    
# 从sklearn.cross_validation里选择导入train_test_split用于数据分割。

X_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.25, random_state=33)    
# 从使用train_test_split,利用随机种子random_state采样25%的数据作为测试集。

from sklearn.preprocessing import StandardScaler     
# 从sklearn.preprocessing里选择导入数据标准化模块。

from sklearn.neighbors import KNeighborsClassifier    
# 从sklearn.neighbors里选择导入KNeighborsClassifier,即K近邻分类器。

# 对训练和测试的特征数据进行标准化。
ss = StandardScaler()
X_train = ss.fit_transform(X_train)
X_test = ss.transform(X_test)
 
# 使用K近邻分类器对测试数据进行类别预测,预测结果储存在变量y_predict中。
knc = KNeighborsClassifier()
knc.fit(X_train, y_train)
y_predict = knc.predict(X_test)

# 使用模型自带的评估函数进行准确性测评。
print ('The accuracy of K-Nearest Neighbor Classifier is:') 
print (knc.score(X_test, y_test)) 

# 依然使用sklearn.metrics里面的classification_report模块对预测结果做更加详细的分析。
from sklearn.metrics import classification_report
print (classification_report(y_test, y_predict, target_names=iris.target_names))

结果如图:
利用KNN对鸢尾花数据进行分类_第2张图片

你可能感兴趣的:(数据挖掘,KNN,鸢尾花数据,分类)