作者:jliang
https://blog.csdn.net/jliang3
说明:以下所有代码使用版本TensorFlow1.4.0或1.12.0版本
import tensorflow as tf
print(tf.__version__)
1.12.0
激活函数
。cross_entropy = -tf.reduce_mean(
y_ * tf.log(tf.clip_by_value(y, 1e-10, 1.0)) + (1-y_)*tf.log(tf.clip_by_value((1-y), 1e-10, 1.0))
)
tf.clip_by_value(A, min, max)
:输入张量A,把A中的每个元素的值都压缩在min和max之间,小于min的让它等于min,大于max的元素的值等于max。
通过tf.clip_by_value(A, min, max)
就可以保证log运算时,不会出现log0这样的错误或者大于1的概率。
v1 = tf.constant([[1.0, 2.0], [3.0, 4.0]])
v2 = tf.constant([[5.0, 6.0], [7.0, 8.0]])
with tf.Session() as sess:
print('元素相乘:\n{}\n'.format((v1*v2).eval()))
print('矩阵相乘:\n{}'.format(tf.matmul(v1, v2).eval()))
元素相乘:
[[ 5. 12.]
[21. 32.]]
矩阵相乘:
[[19. 22.]
[43. 50.]]
cross_entropy = tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y)
回归问题最常用的损失函数时均方误差(MSE, mean squared error)
mse = tf.reduce_mean(tf.square(y_, y))
例子:预测商品销量时,如果预测多了损失成本1元,预测少了就少挣10元。
loss = tf.reduce_sum(tf.where(tf.greater(v1, v2), (v1 - v2) * a, (v2 - v1) * b))
tf.greater()输入两个张量,这函数会比较两个张量中每个元素的大小,并返回比较的结果。输入维度不一样时,将会进行类似Numpy广播操作处理。
v1 = tf.constant([[1.0, 2.0, 3.0, 4.0]])
v2 = tf.constant([[5.0, 6.0, 2.0, 1.0]])
with tf.Session() as sess:
print(tf.greater(v1, v2).eval())
[[False False True True]]
神经网络优化过程分为两个阶段:
global_step = tf.Variable(0)
learning_rate = tf.train.exponential_decay(0.1, global_step, 100, 0.96, staircase=True)
# 使用指数衰减学习率时,在minimize函数中传入global_step将自动更新global_step参数
# 初始学习率为0.1,每训练100轮后学习率乘以0.96.
learnint_step = tr.train.GradientDescentOptimizer(learning_rate).minimize(loss_fun, global_step=global_step)
指的是当一个模型过为复杂之后,它可以很好地“记忆”每一个训练数据中随机噪音的部分而忘记了要去学习训练数据中通用的趋势。
w = tf.Variable(tf.random_normal([2, 1], stddev=1))
y = tf.matmul(x, w)
lambda_ = 0.5
loss = tf.reduce_mean(tf.square(y_ - y)) + tf.contrib.layers.l2_regularizer(lambda_)(w)
weights = tf.constant([[1.0, -2.0], [-3.0, 4.0]])
with tf.Session() as sess:
# (|1.0| + |-2.0| + |-3.0| + |4.0|) * 0.5 = 5
print(sess.run(tf.contrib.layers.l1_regularizer(0.5)(weights)))
# (1^2 + (-2.0)^2 + (-3.0)^2 + 4^2)/2 * 0.5 = 7.5
print(sess.run(tf.contrib.layers.l2_regularizer(0.5)(weights)))
5.0
7.5
由于需要把所有神经网络参数都输入到正则化函数中,神经网络中不同层的参数都要被放到正则化函数中,实施起来比较麻烦。
TensorFlow提供的集合(collection)可以在计算一个图中保存一组实体(如张量),通过集合可以比较方便对所有参数实施正则化。
import tensorflow as tf
def get_weight(shape, lambda_):
var = tf.Variable(tf.random_normal(shape), dtype=tf.float32)
tf.add_to_collection('losses', tf.contrib.layers.l2_regularizer(lambda_)(var))
return var
x = tf.placeholder(tf.float32, shape=(None, 2))
y_ = tf.placeholder(tf.float32, shape=(None, 1))
batch_size = 8
# 定义每一层网络中节点的个数
layer_dimension = [2, 10, 10, 10, 1]
# 神经网络层数
n_layers = len(layer_dimension)
cur_layer = x
# 当前节点的个数
in_dimension = layer_dimension[0]
# 循环生成多层神经网络
for i in range(1, n_layers):
out_dimension = layer_dimension[i]
weight = get_weight((in_dimension, out_dimension), 0.001)
bias = tf.Variable(tf.constant(0.1, shape=[out_dimension]))
cur_layer = tf.nn.relu(tf.matmul(cur_layer, weight) + bias)
in_dimension = layer_dimension[i]
# 训练集的损失函数
mse_loss = tf.reduce_mean(tf.square(y_ - cur_layer))
# 将均方误差损失函数加入损失集合
tf.add_to_collection('losses', mse_loss)
# get_collection()返回一个列表,是所有这个集合中的元素。这些元素就是损失函数的不同部分,将它们加起来就可以得到最终的损失函数
print('{}'.format(tf.get_collection('losses')))
loss = tf.add_n(tf.get_collection('losses'))
[, , , , ]
可以使模型在测试数据上更健壮的方法。
在采用随机梯度下降算法训练神经网络时,使用滑动平均模型在很多应用中都可以在一定程度提高最终模型在测试数据上的表现。
v1 = tf.Variable(0, dtype=tf.float32)
# step变量模拟神经网络中迭代的轮数,可以用于控制衰减率
step = tf.Variable(0, trainable=False)
ema = tf.train.ExponentialMovingAverage(0.99, step)
maintain_averages_op = ema.apply([v1])
with tf.Session() as sess:
# 初始化
init_op = tf.global_variables_initializer()
sess.run(init_op)
print(sess.run([v1, ema.average(v1)]))
# 更新变量v1的取值
sess.run(tf.assign(v1, 5))
sess.run(maintain_averages_op)
print(sess.run([v1, ema.average(v1)]))
# 更新step和v1的取值
sess.run(tf.assign(step, 10000))
sess.run(tf.assign(v1, 10))
sess.run(maintain_averages_op)
print(sess.run([v1, ema.average(v1)]))
# 更新一次v1的滑动平均值
sess.run(maintain_averages_op)
print(sess.run([v1, ema.average(v1)]))
[0.0, 0.0]
[5.0, 4.5]
[10.0, 4.555]
[10.0, 4.60945]