关于如何向Variable变量赋初值

这两天学到了两个很好用的函数:tf.assign(),eval().

其中,tf.assign()是用来给Variable赋初值的;eval()是在session中查看某个tensor的值,不需要再用print(sess.run(...))。

我们都知道,在用tensorflow搭建模型的时候,待训练的参数都是用tf.Variable事先随机的。之后,这些变量会在一次又一次的训练中不断更新。比如:

self.w = tf.Variable(tf.random_normal([1], -1, 1))        
self.b = tf.Variable(tf.zeros([1]))

但是,如果对于一个参数,我们不希望它的初始值是随机的,而是想赋给它一个预设的值,要怎么操作?

举个很简单的例子,现在想要拟合一个函数y=4*x+4。如果像上面那样weight和bias都是随机初始化,可能需要50个epoch才能训练得差不多。但如果我令weight的初始值=1.5,只需要10个epoch就好。

尝试一下这个小实验吧:

x_data = np.reshape(np.random.rand(10).astype(np.float32), (10, 1))
assign_element=np.array([1.5])
print(x_data)

class test_assign:
    def __init__(self):
        self.x= tf.placeholder(tf.float32, shape=[None, 1])        
        self.w = tf.Variable(tf.random_normal([1], -1, 1))        
        self.b = tf.Variable(tf.zeros([1]))
       self.w1=tf.assign(self.w,assign_element)
    def run_predict(self):
        self.y=4*self.x+4
       
        self.y_predict = self.w * self.x + self.b
        loss = tf.reduce_mean(tf.square(self.y - self.y_predict))
        optimizer = tf.train.GradientDescentOptimizer(0.5)
        train = optimizer.minimize(loss)
        return loss,train

T = test_assign()
loss_op,train_op=T.run_predict()
train_step=50
test_w=[]
test_loss=[]
test_b=[]
with tf.Session() as sess:
    init = tf.global_variables_initializer()
    sess.run(init)
    #这里一定要加这个的!不然等于没赋值
    sess.run(T.w1)
   
    for i in range (train_step):
        print(T.w.eval())
        test_b.append(T.b.eval())
        test_w.append(T.w.eval())
        temp_loss,_ = sess.run([loss_op,train_op], feed_dict={T.x: x_data})
        test_loss.append(temp_loss)    

可以试一下,如果删掉这下面两个语句,weight的训练就比较慢。:

self.w1=tf.assign(self.w,[1.5])
...
sess.run(T.w1)

所以这个小实验的意义是什么呢……
对我来说就是 可以把一个numpy数据作为预训练的结果,传入tensorflow中的某个Variable变量,进行后续的训练。

我搜了挺多关于加载模型参数的文章,很多会涉及到checkpoint和restore,对我来说还是太复杂了……

你可能感兴趣的:(关于如何向Variable变量赋初值)