tensorflow解决batch_normalization模型调用遇到的问题和模型引入正则项的问题

最近遇到一个比较奇怪的问题,就是调用训练好的mobilenet_v2时出现模型输出结果全是瞎猜的!最后发现batch_normalize的问题

训练过程中将tf.layers.batch_normalization中的train设置成True,验证集设置成False.发现验证集的准确率保持不变了,如果将验证集也设置成True,验证准确率会提升,但是在模型调用的时候就会出现上述输出全是瞎猜的。需要增加一个更新的操作;

Update = tf.get_collection(tf.GraphKeys.UPDATE_OPS)
with tf.control_dependencies(Update):
    train_op = optimizer.minimize(loss)

然后我们就能够最小化损失函数进行训练了,之后我们将训练设置成True 验证设置成False,就不会出现任何问题了。

还有一个就是正则化中之前用sess=tf.InteractiveSession()创建会话后报了一个cpu和Gpu节点不匹配的问题!改用sess=tf.Session()后就正常了。

你可能感兴趣的:(深度学习入门)