tensorflow学习3:搭建自己的神经网络

这一节讲的主要是构造一个自己的神经网络。

第一步我们要准备好对应的训练数据,np类型就可以。

import tensorflow as tf
import numpy as np

#构造数据
x_data = np.linspace(-1,1,300, dtype=np.float32)[:, np.newaxis] #在-1 到 1之间生成300个数据,
noise = np.random.normal(0, 0.05, x_data.shape).astype(np.float32) #增加 noise项目,给数据增加一些波动
y_data = np.square(x_data) - 0.5 + noise #数据的

#采用占位符为变量预定义位置 None 代表后面无论输入多少特征都可以
xs=tf.placeholder(tf.float32,[None , 1])
ys=tf.placeholder(tf.float32,[None , 1])

第二步要定义好网络是怎么运算的,以及框架的构造。

def add_layer(inputs, in_size, out_size, activation_function=None): # inputs代表输入的数据, in_size 输入的神经元数目,出入的神经元数目,a_f代表激活函数
    Weights = tf.Variable(tf.random_normal([in_size, out_size])) #生成对应大小的权重
    biases = tf.Variable(tf.zeros([1, out_size]) + 0.1) #偏执项
    Wx_plus_b = tf.matmul(inputs, Weights) + biases
    if activation_function is None: #是否有激活函数
        outputs = Wx_plus_b
    else:
        outputs = activation_function(Wx_plus_b)
    return outputs

#build network
#构建一个输入层一个神经元,隐含层都是10个神经元,输出层1个神经元的神经网络
l1=add_layer(xs,1,10,activation_function=tf.nn.relu)
prediction=add_layer(l1,10,1)

#定义损失函数
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),
                     reduction_indices=[1]))
#定义优化器
optimizer=tf.train.AdamOptimizer(0.1).minimize(loss)

#初始化变量
init=tf.global_variables_initializer()

第三步开始训练,在Session中运行上面定义好的运算方式

数据的传入的位置采用之前定义的placeholder ,使用feed_dict 喂入之前的数据。

#定义好各种运算操作后,放到Session中进行
with tf.Session() as sess:
    sess.run(init)  # 变量一定要进行初始化
    for i in range(1000):
        sess.run(optimizer,feed_dict={xs:x_data,ys:y_data}) #训练对应的优化器
        if i%100==0:
             print(sess.run(loss, feed_dict={xs: x_data, ys: y_data}))  #每一百步打印一下对应的损失

下面就是输出的结果。

0.74889445
0.004999578
0.004529789
0.0040417328
0.0037148169
0.0035899663
0.0035279982
0.003419474
0.003336066
0.0032364198

你可能感兴趣的:(TensorFlow)