Python 机器学习的利器(2)

python

在机器学习中,对数据进行分析和处理是必不可少,而且也是决定我们训练效果的关键。

参考《Python机器学习基础教程》
参考 国外有关 pandas 库的教程

iris
from sklearn.datasets import load_iris
iris_dataset = load_iris()
print(iris_dataset)

会返回一个类似字典结构的数据

print("Keys of iris_dataset: \n{}".format(iris_dataset.keys()))

输出如下,同 keys 方法打印 iris_dataset 数据的键值,然后就可以根据键值来获取对应我们想要数据。我是 java 出生喜欢驼峰命名,不过来到 python 也需要入乡随俗,使用蛇形命名 iris_dataset

Keys of iris_dataset: 
['target', 'DESCR', 'target_names', 'feature_names', 'data', 'filename']

在 DESCR 键所对应内容为说明文字。

print(iris_dataset['DESCR'])
在数据都有哪些类别

随后通过对数据进行训练,机器学习通过训练后根据给数据(特征)判断出数据描述属于哪一个类别。

print(iris_dataset['target_names'])

打印一下数据,包括以下类别

['setosa' 'versicolor' 'virginica']
在数据中有些特性

随后我们根据这些特性对数据进行分类,找出可以区分特性是可以分类的前提。

print(iris_dataset['feature_names'])

输出

['sepal length (cm)', 'sepal width (cm)', 'petal length (cm)', 'petal width (cm)']

萼片(sepal)的宽度和长度,以及花瓣(petal)的宽度和长度进行判断。

数据结构

我们看一看 data 里面数据什么样,先来看看数据是什么样结构和形状(这里形状通常指如果数据结构为矩阵,形状是用来表述矩阵维度的)

print(type(iris_dataset['data']))
print(iris_dataset['data'].shape)
(150, 4)

从形状来看数据中有 150 x 4 矩阵,也就是有 150 条数据,4 表示每条记录中对应 4 个特征的值。

print(iris_dataset['data'][:5])

通过打印前 5 行数据来看一看其庐山真面目。

[[5.1 3.5 1.4 0.2]
 [4.9 3.  1.4 0.2]
 [4.7 3.2 1.3 0.2]
 [4.6 3.1 1.5 0.2]
 [5.  3.6 1.4 0.2]]
查看期望值
print(iris_dataset['target'].shape)
(150,)

输出一下期望值,我们 data 数据每条数据对应一个类别,这个是已知条件,每条数据所属的类别(也就是期望值)包括在 target 中。

print(iris_dataset['target'])
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2
 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2
 2 2]

数据 0,1,2 分别对应三种类别。

预处理数据

现在有了数据,对数据结构也有了了解,接下来我们需要将数据进行整理,将数据随机分为训练数据和测试数据

  • 用于构建机器模型的数据被称为训练数据
  • 用于评估训练好的模型的好坏的数据集称为测试数据
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(iris_dataset['data'],iris_dataset['target'],random_state=0)

train_test_split 函数将数据进行洗牌后将 75% 数据作为训练数据,而 25% 数据作为测试数据集。random_state 参数指定随机数生成器的种子。好处是函数输出就是固定不变的,输出一致性。

grr = pd.plotting.scatter_matrix(iris_dataframe, c=y_train, figsize=(
    15, 15), marker='o', hist_kwds={'bins': 20}, s=60, alpha=.8, cmap=mglearn.cm3)
import matplotlib.pyplot as plt
plt.show()

通过 matplotlib 来可视化数据


在开始训练模型

你可能感兴趣的:(Python 机器学习的利器(2))