动手学深度学习学习笔记tf2.0版(第三课:深度学习基础之线性回归)

动手学深度学习学习笔记tf2.0版(第三课:深度学习基础之线性回归)_第1张图片
动手学深度学习学习笔记tf2.0版(第三课:深度学习基础之线性回归)_第2张图片
动手学深度学习学习笔记tf2.0版(第三课:深度学习基础之线性回归)_第3张图片
动手学深度学习学习笔记tf2.0版(第三课:深度学习基础之线性回归)_第4张图片动手学深度学习学习笔记tf2.0版(第三课:深度学习基础之线性回归)_第5张图片

start = time.time()
c = tf.Variable(tf.zeros(1000,))
for i in range(1000):
	c[i].assign(a[i] + b[i])
time() - start
# 输出 0.31618547439575195

向量相加的另一种方法是,将这两个向量直接做矢量加法。

start = time()
c.assign(a + b)
time() - start
# 输出 0.0

动手学深度学习学习笔记tf2.0版(第三课:深度学习基础之线性回归)_第6张图片
小结:

和大多数深度学习模型一样,对于线性回归这样一种单层神经网络,它的基本要素包括模型、训练数据、损失函数和优化算法。
既可以用神经网络图表示线性回归,又可以用矢量计算表示该模型。 应该尽可能采用矢量计算,以提升计算效率。

参考自动手学深度学习和: https://trickygo.github.io/Dive-into-DL-TensorFlow2.0/#/chapter03_DL-basics/3.1_linear-regression

你可能感兴趣的:(动手学深度学习学习笔记tf2.0版(第三课:深度学习基础之线性回归))