前言:很久没有更新了,主要是最近也有很多事情,一个人学习新知识总是有点坚持不下来,前面的知识也没能很好的理解,存在的问题比较多。调试比较难调,在虚拟机里面总是报 “memory error” 或者 “已杀死”,但是重开一遍又没有了,在运行途中也总会出现这样的问题,让我很烦恼,只有自己一个人慢慢调。这几天也坚定了学习代码的心,后面的更新应该会更规律更频繁。本节内容其实是一小节,我觉得也很有必要整理一下,就单独拿出来了。
本节内容:1、实现断点续训
2、输入真实图片,输出预测结果
关键处理:加入 ckpt 操作:
ckpt = tf.train.get_checkpoint_state(MODEL_SAVE_PATH)
if ckpt and ckpt.model_checkpoint_path:
saver.restore(sess, ckpt.model_checkpoint_path)
注解:
(1)函数 tf.train.get_checkpoint_state(checkpoint_dir, latest_filename = None)
该函数表示如果断点文件夹中包含有效断点状态文件,则返回该文件。
参数说明:checkpoint_dir : 表示存储断点文件的目录
latest_filename = None : 断点文件的可选名称,默认为 “checkpoint”
(2)saver.restore(sess, ckpt.model_checkpoint_path)
该函数表示恢复当前会话,将 ckpt 中的值赋给 w 和 b。
参数说明:sess :表示当前会话,之前保存的结果将被加载入这个会话
ckpt.model_checkpiont_path:表示模型存储的位置,不需要提供模型的名字,它会去查看 checkpoint 文件,看看最新的是哪一个,名称是什么。
这三句话实现了给所有的 w 和 b 赋保存在 ckpt 中的值,实现断点续训,有了断点续训就不用担心电脑断电而导致参数白跑的情况。再次运行这段代码时时候,程序会自动找到断点并从断点处继续训练模型。
将这段代码加在 mnist_backward.py 里面
上一小节的 mnist_backward.py (没加入断点续训) 的结果为
然后加入断点续训代码之后,程序从端点处开始训练
过程模型:
网络输入:将一张图片中的像素变成一维数组(784个像素点)
像素点:0-1之间的浮点数(接近0越黑,接近1越白)
网络输出:一维数组(是个可能性概率),数组中最大的那个元素所对应的索引号就是预测结果
整个识别代码中包括了上一节的 mnist_forward, py mnist_backward.py, mnist_test.py 多加入了 mnist_app.py
mnist_app.py 代码
最关键的函数是 application()。
其中任务分成两个函数来完成
(1)testPicArr = pre_pic(testPic) 对手写数字图片做预处理
(2)preValue = restore_model(testPicArr) 将符合神经网络输入要求的图片喂给复现的神经网络模型,输出预测值。
注解:
(1)main函数中的 application 函数:输入要识别的几张图片(注意要给出待识别图片的路径和名称)
(2)代码的处理过程:
手写图片的提供:本文使用的是 ipad 并用Apple pencil在OneNote上写九个数字
然后分别截取这九个数字
实验结果
实际上这个识别准确率还是比较低的,错误率很高。可以说这个模型训练的很不好,识别率很低。然后我将其中的 “3” 写的更好正规一点
最后的识别结果
这个结果表明,如果写的更正规一点,识别率还是不错的,代码本身的逻辑是没有问题的,我觉得问题应该出在训练数据集上面,训练的数据集泛化性不够好,才导致这个不能很好的识别不是太正规的数字,但是改进方法暂时还不知道。