使用Tensorboard——TensorFlow可视化2

效果如下列图所示。

使用Tensorboard——TensorFlow可视化2_第1张图片

使用Tensorboard——TensorFlow可视化2_第2张图片

使用Tensorboard——TensorFlow可视化2_第3张图片

使用Tensorboard——TensorFlow可视化2_第4张图片

代码如下:

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt

#构造添加一个神经层的函数
def add_layer(inputs,in_size,out_size,n_layer,activation_function=None):
    layer_name='layer%s' % n_layer
    with tf.name_scope(layer_name):#define layer name,图层的名字叫layer
        with tf.name_scope('weights'):#define weights name
            Weights=tf.Variable(tf.random_normal([in_size,out_size]),
                                name='W')
            #老版的TensorFlow的该函数为 tf.histogram_summary()
            tf.summary.histogram(layer_name+'/weights',Weights)
        with tf.name_scope('biases'):#define biases
            biases=tf.Variable(tf.zeros([1,out_size])+0.1,
                               name='b')#biases的建议值不为0,故加上0.1
            tf.summary.histogram(layer_name + '/biases', biases)
        with tf.name_scope('Wx_plus_b'):
            Wx_plus_b=tf.matmul(inputs,Weights)+biases
        if activation_function is None:
            outputs=Wx_plus_b
        else:
            outputs=activation_function(Wx_plus_b)
            tf.summary.histogram(layer_name + '/outputs', outputs)
        return outputs

#导入数据
x_data=np.linspace(-1,1,300,dtype=np.float32)[:,np.newaxis]
noise=np.random.normal(0,0.05,x_data.shape).astype(np.float32)
y_data=np.square(x_data)-0.5+noise

#None代表无论输入有多少都可以,因为输入只有一个特征,所以这里是1
with tf.name_scope('inputs'):#形成一个大的图层,包围xs和ys,图层的名字叫inputs
    xs=tf.placeholder(tf.float32,[None,1],name='x_in')#为xs指定名称为x_in
    ys=tf.placeholder(tf.float32,[None,1],name='y_in')#为ys指定名称为y_in


#搭建网络
#输入层为1层、隐藏层为10层、输出层也为1层的神经网络
#添加隐藏层
L1=add_layer(xs,1,10,n_layer=1,activation_function=tf.nn.relu)#使用TensorFlow自带的激励函数tf.nn.relu

#此处的10为隐藏层的10个输出,将它作为输出层的输入;1则表示输出层只有一个输出
#计算所得的prediction的值即是所求的预测值
#添加输出层
prediction=add_layer(L1,10,1,n_layer=2,activation_function=None)

#计算预测值prediction和真实值的误差,对二者差的平方求和再取平均
with tf.name_scope('loss'):
    loss=tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),
                                      reduction_indices=[1]))
    #老版的TensorFlow的该函数为tf.scalar_summary()
    tf.summary.scalar('loss',loss)#观看loss的变化很重要

#使用梯度下降算法来最小化误差loss,学习率为0.1
with tf.name_scope('train'):
    train_step=tf.train.GradientDescentOptimizer(0.1).minimize(loss)

#初始化所有变量
init=tf.global_variables_initializer()

#定义Session,用来执行初始化操作
sess=tf.Session()
#老版的TensorFlow的该函数为tf.merge_all_summaries()
merged=tf.summary.merge_all()#将所有的summary合并打包
writer=tf.summary.FileWriter("logs/",sess.graph)#将整个 框架加载到一个文件
sess.run(init)

#plot the real data
fig=plt.figure()#生成一个图片框
ax=fig.add_subplot(1,1,1)#连续画图
ax.scatter(x_data,y_data)#画散点图
plt.ion()#程序遇到show会暂停,故用它保持程序持续运行
plt.show()

#训练
for i in range(1000):
    sess.run(train_step,feed_dict={xs:x_data,ys:y_data})
    if i % 50 ==0:
        result=sess.run(merged,feed_dict={xs:x_data,ys:y_data})
        writer.add_summary(result,i)#将result加入到 summary中,i是训练的次数
        print(sess.run(loss,feed_dict={xs:x_data,ys:y_data}))
        #先抹除当前的线,再画新的线
        try:
            #抹除当前的线,因第一次没有线可以抹除,会报错,所以用try来捕捉异常
            ax.lines.remove(lines[0])
        except Exception:
            pass
        prediction_value=sess.run(prediction,feed_dict={xs:x_data})
        #plot the prediction
        #画一条曲线,红色,宽度为5
        lines=ax.plot(x_data,prediction_value,'r-',lw=5)
        plt.pause(0.1)#让线条停顿0.1秒

#让画图框运行完不会消失
plt.ioff()
plt.show()


学自 莫烦 PYTHON

你可能感兴趣的:(Python编程,机器学习)