基于TensorFlow2.1.0的简单CNN实现手写体MNIST数据集识别

文章目录

  • 实验环境:
  • 识别流程

实验环境:

操作系统:win10,64位处理器
处理器:Intel Corei5
内存:16GB
编辑工具: Jupyter Notebook
所有框架:tensorflow2.1.0 下的keras框架
如果没有安装keras,可以打开命令提示符,使用pip install keras即可。

识别流程

  1. 读入数据集
  2. 数据进行归一化处理、标签进行独热编码处理
  3. 使用顺序网络模型
  4. 搭建输入层、隐藏层、输出层
  5. 训练模型

下图是我训练的结果。
基于TensorFlow2.1.0的简单CNN实现手写体MNIST数据集识别_第1张图片
代码如下:

import numpy as np
from keras.datasets import mnist
from keras.utils import np_utils
from keras.models import Sequential
from keras.layers import Dense,Dropout,Convolution2D,MaxPooling2D,Flatten 
#二维卷积、二维最大池化、扁平化(二维->一维)
from keras.optimizers import Adam   # 优化器

上面是导入所需要的的包,下面是主要的代码

#载入数据集
(train_data,train_label),(test_data,test_label) = mnist.load_data()
#(60000, 28, 28)------->(60000, 784)  转化数据格式(扁平化)
train_data = train_data.reshape(-1,28,28,1)/255.0  #除以255是做归一化 1表示图像深度
test_data = test_data.reshape(-1,28,28,1)/255.0   #-1会自动进行匹配,也可以写60000
#将标签转化为one hot编码,
#one hot会将每一个标签用唯一的形式进行表示
train_label = np_utils.to_categorical(train_label,num_classes=10)
test_label = np_utils.to_categorical(test_label,num_classes=10)


#创建模型,输入784个神经元,输出10个神经元
model = Sequential()

# 第一个卷积层
# input_shape输入平面
# kernel——size 卷积窗口大小
# padding padding方法 same or valid
# activation 激活函数
model.add(Convolution2D(
    input_shape = (28,28,1),
    filters = 32,   #32个特征图
    kernel_size = 5,   # 卷积窗口大小为5
    strides = 1,       # 步长为1
    padding = 'same',    # 用same padding ,得到的图片与输入的图片大小是一样的
    activation = 'relu'
))
# 第一个池化层
model.add(MaxPooling2D(   
    pool_size = 2,
    strides = 2,    # 出来的特征图为14*14大小
    padding = 'same', 
))

#第二个卷积层 64个滤波器(卷积核),卷积窗口大小为5*5
#经过第二个卷积层后,有64个特征图,每个特征图为14*14
model.add(Convolution2D(64,5,strides = 1, padding='same',activation='relu'))

# 第二个池化层,经过第二个池化层以后,得到的图大小为7*7
model.add(MaxPooling2D(2,2,'same'))  

# 把第二个池化层的输出扁平化为1维 64*7*7
model.add(Flatten())

# 第一个全连接层 
model.add(Dense(1024,activation = 'relu')) 
#Dropout
model.add(Dropout(0.5))

#第二个全连接层,由于是输出层,所以使用softmax做激活函数
model.add(Dense(10,activation='softmax'))

#定义优化器
adam = Adam(lr=0.001)
# 优化器,loss function,训练过程中的准确率
model.compile(optimizer = adam,
              loss='categorical_crossentropy',
              metrics=['accuracy']
             )
#开始训练
model.fit(train_data,train_label,batch_size=32,epochs=10)

#评估模型
loss,accuracy = model.evaluate(test_data,test_label)

print('\ntest loss: ',loss)
print('\naccuracy',accuracy)

你可能感兴趣的:(python学习,初探深度学习)