TensorFlow训练mnist的简单总结

import tensorflow as tf
from  tensorflow.examples.tutorials.mnist import input_data

#mnist数据集相关的常数
INPUT_NODE=784                          #输入层的节点数,对于mnist这个等于图片的像素。
OUTPUT_NODE=10                          #输出层的节点数,这个等于类别的数目

#配置神经网路的参数

LAYER1_NODE=500                          #隐层节点数,这里使用只有一个隐层的网络结构作为样例
BATCH_SIZE=100                           #字数越小,训练过程越接近随机梯度下降;字数越大,越接近梯度下降

LEARNING_RATE_BASE=0.8                   #基础的学习率
LEARNING_RATE_DECAY=0.99                 #学习率的衰减率

REGULARIZATION_RATE=0.0001               #描述模型复杂度的正则化项在损失函数中的系数
TRAINING_STEPS=30000                     #训练轮数

MOVING_AVERAGE_DECAY=0.99                #滑动平均衰减率

#一个辅助函数,给定神经网络的输入和所有参数,计算神经网络的前向传播结果。在这里定义了一个使用Relu激活函数的三层全连接网络。
#在这个函数中也支持传入用于计算参数平均值的类,这样方便在测试时使用滑动平均衰减率模型

def inference(input_tensor,avg_class,weights1,biases1,weights2,biases2):
    #当没有提供滑动平均类时,直接使用参数当前的取值。
    if avg_class==None:
        #计算隐层的前向传播结果,这里使用了Relu激活函数。
        layer1=tf.nn.relu(tf.matmul(input_tensor,weights1)+biases1)

        #计算输出层的前向传播结果。因为在计算损失函数时会一并计算softmax函数,所以这里不需要加入激活函数。而且不加入softmax不会影响
        #预测结果。因为输出时使用的是不同类别对应节点输出值的相对大小,有没有softmax层对最后分类结果的计算,没有影响。于是在计算整个
        #神经网络的前向传播时可以不加入最有的softmax层。
        return tf.matmul(layer1,weights2)+biases2
    else:
        #首先使用avg_class.average计算得出变量的滑动平均值,然后再计算相应的神经网络前向传播结果
        layer1=tf.nn.relu(tf.matmul(input_tensor,avg_class.average(weights1))+avg_class.average(biases1))
        return  tf.matmul(layer1,avg_class.average(weights2))+avg_class.average(biases2)


#训练模型的过程。
def train(mnist):
    x=tf.placeholder(tf.float32,[None,INPUT_NODE],name='x-input')
    y_=tf.placeholder(tf.float32,[None,OUTPUT_NODE],name='y-input')

    #生成隐藏层的参数
    weights1=tf.Variable(tf.truncated_normal([INPUT_NODE,LAYER1_NODE],stddev=0.1))  #tf.Variable作用就是保存和更新神经网络中的参数,使用tf.truncated_normal初始化weights1
    biases1=tf.Variable(tf.constant(0.1,shape=[LAYER1_NODE]))       #tf.constant产生一个常量

    #生成输出层的参数
    weights2=tf.Variable(tf.truncated_normal([LAYER1_NODE,OUTPUT_NODE],stddev=0.1))
    biases2=tf.Variable(tf.constant(0.1,shape=[OUTPUT_NODE]))

    #计算在当前参数下神经网络的前向传播结果。这里给出的用于计算滑动平均的类为 None,所以函数不会使用参数的滑动平均值
    y=inference(x,None,weights1,biases1,weights2,biases2)

    #定义存储训练轮数的变量。这个变量不需要计算滑动平均值,所以这里指定这个变量为不可训练的变量(trainable=False)。
    #在使用TensorFlow训练神经网络时,一般会将代表训练轮数的变量指定为不可训练的参数
    global_step=tf.Variable(0,trainable=False)

    #给定滑动平均衰减率和训练轮数的变量,初始化滑动平均类。在第4章中介绍过给定训练轮数的变量可以加快训练早期变量的更新速度
    variable_averages=tf.train.ExponentialMovingAverage(MOVING_AVERAGE_DECAY,global_step)

    #在所有代表神经网络参数的变量上使用滑动平均。其他辅助变量(比如global_step)就不需要了tf.trainable_variables返回的就是图上集合
    #GraphKeys.TRAINABLE_VARIABLES中的元素。这个集合的元素就是所有没有指定trainable=False的参数。
    variables_averages_op=variable_averages.apply(tf.trainable_variables())

    #计算使用了滑动平均之后的前向传播结果。在第4章中介绍过滑动平均不会改变变量本身的取值,而是会维护一个影子变量来记录其滑动平均值。所以
    #当需要这个滑动平均值时,需要明确调用average函数。
    average_y=inference(x,variable_averages,weights1,biases1,weights2,biases2)

    #计算交叉熵作为刻画预测值和真实之间差距的损失函数。这里使用了TensorFlow中提供的sparse_softmax_cross_entropy_with_logits函数
    #来计算交叉熵。当分类问题只有一个正确答案时,可以使用这个函数加速交叉熵的计算。MNIST问题的图片中只包含了0~9中的一个数字,所以可以使
    # 用这个函数计算交叉熵。这个函数的第一个参数是神经网络不包括softmax层的前向传播结果,第二个是训练数据的正确答案。因为标准答案是一个
    # 长度为10的一维数组,而该函数需要提供的是一个正确答案的数字,所以需要使用tf.argmax函数来得到正确答案对应的类别编号
    cross_entropy=tf.nn.sparse_softmax_cross_entropy_with_logits(logits=y,labels=tf.argmax(y_,1))
    #计算在当前batch中所有样例的交叉熵平均值。
    cross_entropy_mean=tf.reduce_mean(cross_entropy)

    #计算L2正则化损失函数
    regularizer=tf.contrib.layers.l2_regularizer(REGULARIZATION_RATE)
    #计算模型的正则化损失。一般只计算神经网络边上权重的正则化损失,而不使用偏置项。
    regularization=regularizer(weights1)+regularizer(weights2)
    #总损失等于交叉熵损失和正则化损失的和
    loss=cross_entropy_mean+regularization

    #设置指数衰减的学习率
    #通过tf.train.exponential_decay函数生成学习率
    learning_rate=tf.train.exponential_decay(
        LEARNING_RATE_BASE,                 #基础的学习率,随着迭代的进行,更新变量时使用的,学习率在这个基础上递减
        global_step,                        #当前迭代的轮数
        mnist.train.num_examples/BATCH_SIZE,#过完所有的训练数据需要的迭代次数
        LEARNING_RATE_DECAY                 #学习率衰减速度
    )

    #使用tf.train.GradientDescentOptimizer优化算法来优化损失函数。注意损失函数包含了交叉熵损失和L2正则化损失
    train_step=tf.train.GradientDescentOptimizer(learning_rate).minimize(loss,global_step=global_step)

    #在训练神经网络模型时,每过一边数据既需要通过反向传播来更新神经网络的参数,又要更新每一个参数的滑动平均值。为了一次完成多个操作
    #TensorFlow提供了tf.control_dependencies和tf.group两种机制。下面程序和
    #train_op=tf.group(train_step,variables_averages_op)是等价的
    #with tf.control_dependencies([train_step,variables_averages_op]):train_op=tf.no_op(name='train')
    train_op = tf.group( train_step, variables_averages_op )

    #检验使用了滑动平均模型的神经网络前向传播结果是否正确。tf.argmax(average_y,1)计算每一个样例的预测答案。其中average_y
    #是一个batch_size*10的二维数组,每一行表示一个样例的前向传播结果。tf.argmax的第二个参数 “1” 表示选取最大值的操作仅在
    #第一个维度中进行,也就是说,只在每一行选取最大值对应的下标。于是得到的结果是一个长度为batch的一维数组,这个一维数组中的值
    #就表示了每一个样例对应的数字识别结果。tf.equal判断两个张量每一个维度是否相等,如果相等返回True,否则返回False
    correct_prediction=tf.equal(tf.argmax(average_y,1),tf.argmax(y_,1))

    #这个运算首先将一个布尔型的数值转换为实数型,然后计算平均值。这个平均值就是模型在这一组数据上的正确率。
    accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))

    #初始化会话并开始训练过程
    #创建一个会话,通过python的上下文管理器来管理这个会话
    #当上下文退出时会自动释放所有的资源
    with tf.Session() as sess:
        tf.global_variables_initializer().run()  #虽然weights1,weights2,biases1,biases2定义时给出了变量初始化的方法,但这个方法并没有被真正的运行,tf.global_variables_initializer().run() 实现初始化所有变量
        #准备验证数据。一般在神经网路的训练过程中会通过验证数据来大致判断停止的条件和评判训练的效果。
        validate_feed={x:mnist.validation.images,y_:mnist.validation.labels}

        #准备测试数据。在真实的应用中,这部分数据在训练时是不可间的,这个数据只是作为模型优劣的最后评价标准。
        test_feed={x:mnist.test.images,y_:mnist.test.labels}

        #迭代的训练神经网络
        for i in range(TRAINING_STEPS):
            #每1000轮输出一次在验证数据集上的测试结果。
            if i%1000==0:
                #计算滑动平均模型在验证数据上的结果。因为mnist数据集比较小,所以一次可以处理所有的验证数据。为了计算方便,本样例程序
                #没有将验证数据划分为更小的batch。当神经网路比较复杂或验证数据比较大时,太大的batch会导致计算时间过长甚至发生内存
                #溢出的错误
                validate_acc=sess.run(accuracy,feed_dict=validate_feed)
                print("After %d training step(s),validation accuracy using average model is %g" % (i,validate_acc))


            #产生这一轮使用的一个batch的训练数据,并运行训练过程。
            xs,ys=mnist.train.next_batch(BATCH_SIZE)
            sess.run(train_op,feed_dict={x:xs,y_:ys})

        #训练结束之后,在测试数据上检测神经网络模型的正确率。
        test_acc=sess.run(accuracy,feed_dict=test_feed)
        print("After %d training step(s),test accuarcy using average model is %g" %(TRAINING_STEPS,test_acc))


#主程序入口
def main(argv=None):
    #声明处理MNIST数据集的类,这个类在初始时会自动下载数据
    mnist=input_data.read_data_sets("D:\PycharmProjects/tf/MNIST_data",one_hot=True)
    train(mnist)

#TensorFlow提供一个主程序入口,tf.app.run会调用上面定义的main函数。
if __name__=='__main__':
    tf.app.run()

通过本程序,总结出训练神经网络主要有以下几个步骤:

1. 定义前向传播
2. 定义网络结构
3. 损失函数
4. 反向传播优化算法
5. 会话执行计

TensorFlow程序一般分为两个步骤:

  • 定义计算图中所有的计算(也就是上面的1、2、3、4步)
  • 执行计算

你可能感兴趣的:(Object,Detection)