基于python TensorFlow 实现数字识别

主要利用了MNIST图像库,代码如下

# _*_ coding:UTF-8 _*_

import numpy as np
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data # 下载并载入MMIST手写数据库(55000*28*28)55000张训练图像

mnist = input_data.read_data_sets('mnist_data',one_hot=True) # 下载回本地,里面是路径,one_hot独热码的编码(encoding)形式

input_x = tf.placeholder(tf.float32,[None,28 * 28]) / 255. # placeholder占位符
output_y = tf.placeholder(tf.int32,[None,10])  # None 表示张量(tensor)的第一个维度,可以是任何长度 输出:10个数字的标签
input_x_images = tf.reshape(input_x,[-1,28,28,1])  # 改变形状之后的输入

# 从Test(测试)数据集里选取3000个手写数据的图片和对应标签
test_x = mnist.test.images[:3000]  # 图片
test_y = mnist.test.labels[:3000]  # 标签

# 构建卷积神经网络
# 构建第一层卷积
conv1 = tf.layers.conv2d(
    inputs=input_x_images, # 形状[28,28,1]
    filters=32,  # 32个过滤器,输出的深度(depth)是32
    kernel_size=[5,5], # 过滤器在二维的大小是(5*5)
    strides=1,  # 步长是1
    padding='same', # same表示输出的大小不变,因此需要在外围补零两圈
    activation=tf.nn.relu # 激活函数是Relu
    # 形状[28,28,32]
)

# 第一层池化(亚采样)
pool1 = tf.layers.max_pooling2d(
    inputs=conv1,  # 形状[28,28,32]
    pool_size=[2,2],  # 过滤器在二维的大小
    strides=2 # 步长
    # 形状[14,14,32]
)


# 第二层卷积
conv2 = tf.layers.conv2d(
    inputs=pool1, # 形状[14,14,32]
    filters=64,  # 64个过滤器,输出的深度(depth)是64
    kernel_size=[5,5], # 过滤器在二维的大小是(5*5)
    strides=1,  # 步长是1
    padding='same', # same表示输出的大小不变,因此需要在外围补零两圈
    activation=tf.nn.relu # 激活函数是Relu
    # 形状[14,14,64]
)

# 第二层池化(亚采样)
pool2 = tf.layers.max_pooling2d(
    inputs=conv2,  # 形状[28,28,32]
    pool_size=[2,2],  # 过滤器在二维的大小
    strides=2 # 步长
    # 形状[7,7,64]
)

# 平坦化(flat)
flat = tf.reshape(pool2, [-1, 7 * 7 * 64])  # 形状[7*7*64,]

# 1024个神经元的全连接层
dense = tf.layers.dense(inputs=flat,units=1024,activation=tf.nn.relu)

# Dropout:丢弃 50% rate=0.5
dropout = tf.layers.dropout(inputs=dense,rate=0.5)

# 10神经元的全连接层,这里不用激活函数来做非线性化
logits = tf.layers.dense(inputs=dropout,units=10)  #输出。形状[1,1.10]

# 计算误差(计算 Cross entropy(交叉熵),再用softmax计算百分比概率>)
loss = tf.losses.softmax_cross_entropy(onehot_labels=output_y,logits=logits)

# 用Adam 优化器来最小化误差,学习率 0.001
train_op = tf.train.AdadeltaOptimizer(learning_rate=0.001).minimize(loss)

# 精度,计算预测值和实际标签的匹配程度
# 返回(accuracy,update_op),会创建两个局部变量
accuracy = tf.metrics.accuracy(
    labels=tf.argmax(output_y, axis=1),
    predictions=tf.argmax(logits, axis=1),)[1]

# 创建会话
sess = tf.Session()

# 初始化变量:全局和局部,局部变量是因为在上面创建了两个局部变量
init = tf.group(tf.global_variables_initializer(),tf.local_variables_initializer())
sess.run(init)

for i in range(20000):
    batch = mnist.train.next_batch(50)  # 从Train(训练)数据集里取“>下一个”50个样本
    train_loss,train_op_ = sess.run([loss,train_op],{input_x:batch[0],output_y:batch[1]})
    if i % 100 == 0:
        test_accuracy = sess.run(accuracy,{input_x:test_x,output_y:test_y})
        print(i,train_loss,test_accuracy)
        # print(i,"Train loss=%.4f,[Test accuracy=%.2f]")% (i,train_loss,test_accuracy)

# 测试:打印20个预测值和真实值的对
test_output = sess.run(logits,{input_x:test_x[:20]})
inferenced_y = np.argmax(test_output,1)
print(inferenced_y,'Inferenced numbers') # 推测的数字
print(np.argmax(test_y[:20],1),'Real number') # 真实的数字

最后还有一步是保存

#保存模型参数

saver = tf.train.Saver()
saver.save(sess, './model.ckpt')

会保存出来四个文件


image.png

暂时还没明白怎么调用,会的时候再更新

你可能感兴趣的:(基于python TensorFlow 实现数字识别)