tensorflow 计算梯度: tf.gradient() 与 tf.GradientTape()

tensorflow就是版本繁多,同一个功能有n种实现方式,之前一直用tf.gradient()计算梯度,今天发现还有tf.GradientTape.

1. tf.gradient()

参考:Tensorflow:tf.gradient()用法以及参数stop_gradient理解

import tensorflow as tf

a = tf.constant(3.)
b = 2*a
c = a+b
g = tf.gradients(c,[a,b],stop_gradients=[b])

with tf.Session() as sess:
    print(sess.run(g))

2. tf.GradientTape()

参考:tf.GradientTape详解:梯度求解利器


import tensorflow as tf

x1 = tf.constant(3.0)
x2 = tf.constant(4.0)

with tf.GradientTape() as g:
    g.watch([x1,x2])
    y = x1 * x2
    dy_dx = g.gradient(y,[x1,x2])

with tf.Session() as sess:
    print(sess.run(dy_dx))

3. 区别与联系

联系:都是计算梯度

区别:tf.GradientTape 与 tf.gradient()  相比增加了上下文属性,仅对 with tf.GradientTape() as tape 范围以内的变量计算梯度,更方便进行梯度计算管理。 

你可能感兴趣的:(tensorflow 计算梯度: tf.gradient() 与 tf.GradientTape())