深度学习——用softmax函数来规范可变参数

参考书籍:《深度学习——基于Python语言和TensorFlow平台》
‘nn’是neural network的缩写,nn是TensorFlow的一个重要子类(包),其中的softmax函数是经常被用到的一个函数,它可以把一个向量规范化后得到一个新的向量,这个新的向量中的所有数值相加起来保证为1。

import tensorflow as tf

x = tf.placeholder(shape=[3], dtype=tf.float32)

# yTrain因为只是一个普通数字,不是向量,如果要给它一个形态的话,可以用一个空的方括号"[]"来表示
yTrain = tf.placeholder(shape=[], dtype=tf.float32)

# tf.zeros([3]返回一个全值为0的3维向量
w = tf.Variable(tf.zeros([3]), dtype=tf.float32)
wn = tf.nn.softmax(w)

n = x*w

# tf.reduce_sum函数的作用是把作为它的参数的向量中的所有维度的值相加求和
y = tf.reduce_sum(n)

loss = tf.abs(y-yTrain)

optimizer = tf.train.RMSPropOptimizer(0.001)

train = optimizer.minimize(loss)

sess = tf.Session()

init = tf.global_variables_initializer()

sess.run(init)

for i in range(2):
    result = sess.run([train, x, w, wn, y, yTrain, loss], feed_dict={x: [90, 80, 70], yTrain: 85})
    print(result[3])

    result = sess.run([train, x, w, wn, y, yTrain, loss], feed_dict={x: [98, 95, 87], yTrain: 96})
    print(result[3])

深度学习——用softmax函数来规范可变参数_第1张图片

你可能感兴趣的:(深度学习——用softmax函数来规范可变参数)