2019-05-10 tensorboard使用

TensorBoard 是如何工作的?

简单来说,TensorBoard 是通过一些操作(summary operations)将数据记录到文件(event files)中,然后再读取文件来完成作图的。想要在浏览器上看到 TensorBoard 页面,大概需要这几步:

    summary。在定义计算图的时候,在适当的位置加上一些 summary 操作 。

    merge。你很可能加了很多 summary 操作,我们需要使用 tf.summary.merge_all 来将这些 summary 操作聚合成一个操作,由它来产生所有 summary 数据。

    run。在没有运行的时候这些操作是不会执行任何东西的,仅仅是定义了一下而已。在运行(开始训练)的时候,我们需要通过 tf.summary.FileWriter() 指定一个目录来告诉程序把产生的文件放到哪。然后在运行的时候使用 add_summary() 来将某一步的 summary 数据记录到文件中。

当训练完成后,在命令行使用 tensorboard --logdir=path/to/log-directory 来启动 TensorBoard,按照提示在浏览器打开页面,注意把 path/to/log-directory 替换成上面指定的目录。

1. tf.summary.histogram(生成Histogram 和distribution),

代码示例:

tf.summary.histogram('layer'+str(i+1)+'weights',weights)

2. tf.summary.scalar: 主要用于记录诸如:准确率、损失和学习率等单个值的变化趋势。

    代码示例:

    with tf.name_scope('accuracy'):

        correct_prediction = tf.equal(tf.argmax(logits, 1), tf.argmax(y, 1))

        accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

        tf.summary.scalar('accuracy', accuracy)

3. tf.summary.image: 

    作用:如果你的模型输入是图像,想检查每次输入的图像以保证正确性。iamges面板就可以显示出相应的输入图像,默认显示最新的输入图像。

代码示例:

    x = tf.placeholder(tf.float32, shape=[None, N_FEATURES], name='x')

    x_image = tf.transpose(tf.reshape(x, [-1, 3, 32, 32]), perm=[0, 2, 3, 1])

    tf.summary.image('input', x_image, max_outputs=3)

    y = tf.placeholder(tf.float32, [None, N_CLASSES], name='labels')

其中参数max_outputs表示最多显示几张图片。

4. tf.summary.FileWriter(分别生成日志), 指定一个目录来告诉程序把文件放到哪里。然后运行的时候使用add_summary()来将某一步的summary数据记录到文件中

代码示例:

    eval_writer = tf.summary.FileWriter(LOGDIR + '/eval')# Some other code


    seval_writer.add_summary(tf.Summary(value=[tf.Summary.Value(tag='eval_accuracy', simple_value=np.mean(test_acc))]), i)

5. tf.summary.merge_all(整理日志操作的,sess.run一次就不用对上述分别run)



2019-05-10 tensorboard使用_第1张图片

Graphs面板

用于从总体上看所构建的网络结构,可以显示训练数据流的方向和大小,训练时每个节点的用时,耗费内存的大小,以及参数的多少。主要分为两部分:主图(网络结构)和辅助节点(初始化、训练、保存等节点)。每个节点都是用tf.name_scope()来定义的。

tensorboard默认不记录每个节点的用时、耗费内存大小等信息的,要显示这些信息,需要再sess.run()中加入options和run_metadata参数。添加下列代码:

    run_options = tf.RunOptions(trace_level=tf.RunOptions.FULL_TRACE)

    run_metadata = tf.RunMetadata()

    s, lss, acc , _ = sess.run([merged_summary, loss, accuracy, train_step],

                              feed_dict={x: batch_x, y: batch_y, phase: 1},

                              options=run_options,

                              run_metadata=run_metadata)

    summary_writer.add_run_metadata(run_metadata, 'step{}'.format(i))

    summary_writer.add_summary(s, i)

Distributions面板

用于展示网络中各参数随训练步数增加的变化情况。如:权重的分布

    with tf.name_scope(name):

        W = tf.Variable(tf.truncated_normal(

            [k, k, channels_in, channels_out], stddev=0.1), name='W')

        b = tf.Variable(tf.constant(0.1, shape=[channels_out]), name='b')

        conv = tf.nn.conv2d(inpt, W, strides=[1, s, s, 1], padding='SAME')

        act = tf.nn.relu(conv)

        tf.summary.histogram('weights', W)

        tf.summary.histogram('biases', b)

        tf.summary.histogram('activations', act)

Histograms面板

和distributions是对同一数据不同方式的展现。是频数直方图的堆叠。

你可能感兴趣的:(2019-05-10 tensorboard使用)