慎用tf.no_op()

这两天在训练模型的时候遇到了一个奇怪的问题,我设置了每运行10次训练epoch运行一次评估epoch,结果这一次评估epoch运行的时间要比10次训练epoch长的多,而评估epoch的session中没有传入optimizer,是用tf.no_op替代,而这tf.no_op耗时相当长,记录一下此问题。

你可能感兴趣的:(慎用tf.no_op())