机器学习实战-之KNN篇

之前读《机器学习实战》,对很多算法从原理上进行编写,对学习算法有很大帮助,但效率很低。用pandas和sklearn可以很快的实现算法,效率更高。

1、数据准备

本次实用的数据,如图所示:


通过对前三列的类别进行分类,来预测未知分类对应的程度,从而达到分类;首先从excel读取数据,语句如下:

#-*- coding: utf-8 -*-

import sys

reload(sys)

sys.setdefaultencoding('utf-8')

import pandas as pd

data_file = "../data/data.xlsx"

df = pd.read_excel(data_file, encoding="utf-8")

通过这种方法读取的df,是dataframe类型的数据,相当于二维矩阵,读取,及操作都需要响应语法。例如,可以通过以下方法读取类型或数据:

x = df[[u'里程',u'冰淇淋', u'游戏']]

y = df[[u'程度']]

2、数据清洗和数据归一

数据由于存在质量问题,因此必要的清洗是应该的;另外,不同类型的数据还存在量纲的差别,因此需要对数据进行归一化才能使得结果更准确。方法如下:

数据清洗:

explore = df.describe().T

print explore

通过此方法,可以查看各属性数据的空值数、最大最小值等来分析数据可能存在的问题。复杂的时候,还可以写复合逻辑来查数据不合理的成分,详见《Python数据分析与挖掘实战》的第七章,符合来查票价的不合理成分。

数据归一:

归一场用的方法是0-均值规范化:

x = (x-x.mean())/x.std()

或者利用sklearn自带的方法:

from sklearn.preprocessing import StandardScaler

ss = StandardScaler()

x = ss.fit_transform(x)

3、模型建立

首先将数据拆分成训练集和测试集:

from sklearn.model_selection import train_test_split

x_train, x_test, y_train, y_test = train_test_split(x,y,random_state = 1)

其中random_state=1表示每次随机分成的测试集与训练集都相同

训练KNN模型:

knn = neighbors.KNeighborsClassifier()

knn.fit(x_train,y_train)

4、模型预测

y_pred = knn.predict(x_test)

通过此预测得到的数据类型其实是:narray,不是值钱的dataframe,这一点要注意;所以在比较时,要做数据转换;

5、模型评价

y_pred_array = y_test.values.ravel()

result = y_pred_array - y_pred

temp = 0

for i in result:

    if i==0:

        temp += 1

print float(temp)/len(result)

通过将测试集进行模型预测,再跟测试集已知结果进行比对,边得知模型的准确读;以上是自己实现的方法,首先是将之前的dataframe类型转为narray类型,然后用循环统计两者做差之后0的数量,即为正确的数量。

或者利用已知的方法来做比对:

print 'The accuracy of K-Nearest Neighbor Classifier is', knn.score(x_test, y_test)

from sklearn.metrics import classification_report

print classification_report(y_test, y_pred)

通过这两种方法都能得知模型的准确度;

6、补充

#在不归一化数据时,模型的准确率时:0.796

#归一化之后,准确率时:0.952

概念:

你可能感兴趣的:(机器学习实战-之KNN篇)