tf卷积神经网络CNN进行mnist手写数字识别,dense,conv2d,batch_normalization
对此文内容做了简化和对一个卷积层做了batch_normalization的处理。batch_normalization:更有效的在各层间传递数据,加速训练平稳收敛。训练时training设置true,测试时设置false。batch_normalization需要在该层的激活函数之前做。tf.nn.max_pool(value,ksize,strides,padding,name=None),参