Tensorflow保存训练结果

demo

  • 训练&保存
# -*- coding: utf-8 -*-
import tensorflow as tf
import input_data
mnist = input_data.read_data_sets('./训练集', one_hot=True)


'''
    # 构建运算图
'''
# X Y 都是占位符 占位而已 不表示具体的数据
x = tf.placeholder("float", [None, 784],name='x')  # 图像的大小为784;None表示第一个维度可以是任意长度

# 一个Variable代表一个可修改的张量,它们可以用于计算输入值,也可以在计算中被修改
W = tf.Variable(tf.zeros([784, 10]),name = 'W')
b = tf.Variable(tf.zeros([10]),name = 'b')

y = tf.nn.softmax(tf.matmul(x, W) + b,name = 'y')

# 计算交叉熵
y_ = tf.placeholder("float", [None, 10],name = 'y_')
cross_entropy = -tf.reduce_sum(y_ * tf.log(tf.clip_by_value(y, 1e-10, 1.0)))

# 梯度下降算法(gradient descent algorithm)

train_step=tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)

# 在运行计算之前,我们需要添加一个操作来初始化我们创建的变量:
init=tf.global_variables_initializer()

# 在一个Session里面启动我们的模型,并且初始化变量:
sess=tf.Session()
sess.run(init)
# writer = tf.summary.FileWriter("./logfile",sess.graph)
# 训练模型1000次

for i in range(1000):
  batch_xs, batch_ys=mnist.train.next_batch(100)
  sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})

# writer.close()

correct_prediction=tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1),name = 'correct_prediction')
accuracy=tf.reduce_mean(tf.cast(correct_prediction, "float"),name = 'accuracy')
# print('-**-',accuracy,type(accuracy))

print(sess.run(accuracy, feed_dict={
      x: mnist.test.images, y_: mnist.test.labels}))
saver = tf.train.Saver()
saver.save(sess, "./Model/MNIST.ckpt")
  • 提取
    先给出一个错误的示范:
# -*- coding: utf-8 -*-
import tensorflow as tf
sess = tf.Session()
saver = tf.train.import_meta_graph('./Model/MNIST.ckpt.meta')
saver.restore(sess, './Model/MNIST.ckpt')

W = tf.get_default_graph().get_tensor_by_name('W:0')
b = tf.get_default_graph().get_tensor_by_name('b:0')

#print(sess.run(W))
#print(sess.run(b))
#print(sess.run(tf.get_default_graph().get_tensor_by_name('y:0'), feed_dict={
#      x: mnist.test.next_batch(10)[0]}),mnist.test.next_batch(10)[1])
print(sess.run(tf.get_default_graph().get_tensor_by_name('accuracy:0'), feed_dict={
      x: mnist.test.images, y_: mnist.test.labels}))

这个会报错:


0.png

提示x未定义。
我们看一下代码,在输入变量feed_dict里面有{x: mnist.test.images}这一句。我们知道定义字典的时候,key值必须是一个变量或者是定值。在这里x没有定义过。
改为:

# -*- coding: utf-8 -*-
"""
Created on Thu Feb 14 16:04:23 2019

@author: zjp
"""
import input_data
mnist = input_data.read_data_sets('./训练集', one_hot=True)

import tensorflow as tf
sess = tf.Session()
saver = tf.train.import_meta_graph('./Model/MNIST.ckpt.meta')
saver.restore(sess, './Model/MNIST.ckpt')

#W = tf.get_default_graph().get_tensor_by_name('W:0')
#b = tf.get_default_graph().get_tensor_by_name('b:0')
x = tf.get_default_graph().get_tensor_by_name('x:0')
#print(sess.run(W))
#print(sess.run(b))
print(sess.run(tf.get_default_graph().get_tensor_by_name('y:0'), feed_dict={
      x: mnist.test.next_batch(1)[0]}),mnist.test.next_batch(1)[1])
#print(sess.run(tf.get_default_graph().get_tensor_by_name('accuracy:0'), feed_dict={
#      x: mnist.test.images, y_: mnist.test.labels}))

需要注意的是,tf.get_default_graph().get_tensor_by_name('y:0')需要3个tf变量,但是除了x之外都不需要显示定义。
两者的正确率一样,表示训练成功。

结果

易犯错误

  1. 运行完一次保存变量的脚本之后,不清除变量就接着运行一次
  2. 上文已经提到,在恢复变量的时候,如果出现提示'x'未定义之类的,用tf.get_default_graph().get_tensor_by_name('x:0')引入而不可以重新定义一个x = tf.placeholder()

你可能感兴趣的:(Tensorflow保存训练结果)