sklearn神经网络,进行多分类,数字识别(代码详解版)

from sklearn.neural_network import MLPClassifier
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
import matplotlib.pyplot as plt

# 测试集,画图对预测值和实际值进行比较
def test_validate(x_test, y_test, y_predict, classifier):
    x = range(len(y_test))
    plt.plot(x, y_test, "ro", markersize=5, zorder=3, label=u"true_v")
    plt.plot(x, y_predict, "go", markersize=8, zorder=2, label=u"predict_v,$R$=%.3f" % classifier.score(x_test, y_test))
    plt.legend(loc="upper left")
    plt.xlabel("number")
    plt.ylabel("true?")
    plt.show()

# 神经网络数字分类
def multi_class_nn():
    digits = datasets.load_digits()#得到手写数字的数据集
    x = digits['data']#获取特征数据
    y = digits['target']#获取标签数据

    # 对数据的训练集进行标准化
    ss = StandardScaler()# 归一化 概率模型(树形模型)不需要归一化,因为它们不关心变量的值,而是关心变量的分布和变量之间的条件概率,如决策树、RF。而像Adaboost、SVM、LR、Knn、KMeans之类的最优化问题就需要归一化。
    x_regular = ss.fit_transform(x)#训练转换
    # 划分训练集与测试集
    x_train, x_test, y_train, y_test = train_test_split(x_regular, y, test_size=0.1)
    clf = MLPClassifier(solver='lbfgs', alpha=1e-5, hidden_layer_sizes=(5,), random_state=1)#lbfgs 是MLPClassifier优化 ,alpha 正则化参数 hidden layer size 隐藏层的数量
    clf.fit(x_train, y_train)#拟合(是mlp里的方法)
    # 模型效果获取
    r = clf.score(x_train, y_train) #平均准确度
    print("R值(准确率):", r)
    # 预测
    y_predict = clf.predict(x_test)  # 预测
    print(y_predict)
    print(y_test)
    # 绘制测试集结果验证
    test_validate(x_test=x_test, y_test=y_test, y_predict=y_predict, classifier=clf)

multi_class_nn()

你可能感兴趣的:(神经网络)