目录
①导入所需的库
②加载手写体数据集,将数据集分为训练集和测试集
③数据预处理
④构建模型
⑤编译模型
⑥训练模型
⑦使用测试集进行验证
⑧输出模型准确率和时间消耗
完整代码如下:
从Keras库中导入mnist数据集、Sequential模型、Dense、Flatten、Conv2D、MaxPooling2D层以及np_utils工具。
from keras.datasets import mnist
from keras.models import Sequential
from keras.layers import Dense, Flatten, Conv2D, MaxPooling2D
from keras.utils import np_utils
import time
首先从Keras库中引入手写数字数据集MNIST,它是一个包含60,000个训练样本和10,000个测试样本的数据集。然后使用load_data()函数将MNIST数据集加载到程序中,并将数据集分为训练集和测试集,其中x_train、y_train为训练集,x_test、y_test为测试集。
# 加载手写体数据集,将数据集分为训练集和测试集
(x_train, y_train), (x_test, y_test) = mnist.load_data()
start_time = time.perf_counter()
由于神经网络只能够接受数值型数据,因此需要将手写数字图像转换为数据张量格式。在这个过程中,需要将每个图像转换为28x28的矩阵,并添加额外的一维来表示颜色通道。同时,由于图像数据的大小范围可能不同,进行归一化可以使所有的图像数据都落在[0,1]之间。归一化后,可以将数据集中所有值除以255,将其转换为float32类型。
对于图片的标签,将每个数字转化为10个输出,如0输出为1000000000,1输出为0100000000,3输出为0010000000。
# 将数据变为四维张量并归一化
x_train = x_train.reshape(x_train.shape[0], 28, 28, 1).astype('float32') / 255
x_test = x_test.reshape(x_test.shape[0], 28, 28, 1).astype('float32') / 255
# 将类别数据转换为 one-hot 编码
Y_train = np_utils.to_categorical(y_train, 10)
Y_test = np_utils.to_categorical(y_test, 10)
这里采用了Sequential模型,它是一系列层的线性堆叠。在模型中,首先添加一个卷积层Conv2D,用于提取图像特征。该层的参数有:filters=1,表示所用滤波器的数量;kernel_size=(3,3),表示滤波器的大小;activation='relu',表示使用ReLU激活函数。然后添加一个池化层MaxPooling2D,用于降采样,减少参数的数量。该层的参数pool_size=(2, 2),表示池化区域的大小。接下来添加一个Flatten层,将张量展平为一维向量,用于连接全连接层。最后添加一个全连接层Dense,它具有10个输出神经元,表示0~9这10个数字分类。该层的激活函数为softmax,用于输出每个分类的概率。
# 构建模型
model = Sequential() # 定义一个序贯模型
# 卷积层
model.add(Conv2D(filters=1, kernel_size=(3, 3), activation='relu', input_shape=(28, 28, 1)))
# 池化层
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Flatten()) # 一维化数据
# 全连接层
model.add(Dense(10, activation='softmax')) # 添加一个全连接层,输出大小为10,激活函数为softmax
在编译模型时,需要指定损失函数、优化器和评估指标。这里将损失函数设为交叉熵,优化器使用Adam算法,评估指标为准确率。
# 编译模型
model.compile(loss='categorical_crossentropy', # 使用交叉熵作为损失函数
optimizer='adam', # 使用adam优化器进行训练
metrics=['accuracy']) # 在训练过程中监测模型的精度
使用fit()方法对构建好的神经网络进行训练,并迭代多次以逐渐优化模型。在这个过程中,需要输入训练数据和标签。同时,可以设置分批次训练和训练的轮数等参数,verbose可用于决定是否显示训练过程。
# 训练模型
history = model.fit(x_train, Y_train, # 输入训练数据和标签
batch_size=128, epochs=5, # 分批次训练,每个批次包含128个样本
verbose=1) # 显示训练过程
使用evaluate()方法对模型进行测试,并返回测试误差和测试准确率。
# 使用测试集进行验证
# 评估模型
score = model.evaluate(x_test, Y_test, verbose=0) # 对模型进行测试并返回测试误差和测试准确率
在训练结束后,输出模型在测试集上的准确率,并记录总的时间消耗。
# 记录结束时间
end_time = time.perf_counter()
print('Test accuracy:', score[1]) # 输出测试准确率
print('Time consumption:', end_time - start_time, 'seconds')
from keras.datasets import mnist
from keras.models import Sequential
from keras.layers import Dense, Flatten, Conv2D, MaxPooling2D
from keras.utils import np_utils
import time
# 加载手写体数据集,将数据集分为训练集和测试集
(x_train, y_train), (x_test, y_test) = mnist.load_data()
start_time = time.perf_counter()
# 将数据变为四维张量并归一化
x_train = x_train.reshape(x_train.shape[0], 28, 28, 1).astype('float32') / 255
x_test = x_test.reshape(x_test.shape[0], 28, 28, 1).astype('float32') / 255
# 将类别数据转换为 one-hot 编码
Y_train = np_utils.to_categorical(y_train, 10)
Y_test = np_utils.to_categorical(y_test, 10)
# 构建模型
model = Sequential() # 定义一个序贯模型
# 卷积层
model.add(Conv2D(filters=1, kernel_size=(3, 3), activation='relu', input_shape=(28, 28, 1)))
# 池化层
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Flatten()) # 一维化数据
# 全连接层
model.add(Dense(10, activation='softmax')) # 添加一个全连接层,输出大小为10,激活函数为softmax
# 编译模型
model.compile(loss='categorical_crossentropy', # 使用交叉熵作为损失函数
optimizer='adam', # 使用adam优化器进行训练
metrics=['accuracy']) # 在训练过程中监测模型的精度
# 训练模型
history = model.fit(x_train, Y_train, # 输入训练数据和标签
batch_size=128, epochs=5, # 分批次训练,每个批次包含128个样本
verbose=1) # 显示训练过程
# 使用测试集进行验证
# 评估模型
score = model.evaluate(x_test, Y_test, verbose=0) # 对模型进行测试并返回测试误差和测试准确率
# 记录结束时间
end_time = time.perf_counter()
print('Test accuracy:', score[1]) # 输出测试准确率
print('Time consumption:', end_time - start_time, 'seconds')