Python环境搭建请参考https://www.jianshu.com/p/be400adba577
在入门前先要引入tensorflow
:
import tensorflow as tf
张量 tensor
张量是深度学习框架存储数据的结构,张量就是数组,但是一般是高维数组:把几个矩阵叠起来这样。
TF的张量是元组(因为TF代码是Python的)。
图 graph
图是TF的主要结构。TF中能执行的结构就是图。
上面说的张量是构成图的边!边与边之间的结点叫“操作”。
在TF中,张量计算后才能拿到数组中的值,图在运算前,张量就是简单的张量结构tf.Tensors
,并不能拿到里面的值。看下例子:
a = tf.constant(3.0, dtype=tf.float32)
b = tf.constant(4.0)
total = a + b
print(a)
print(b)
print(total)
这是一段经典的类似“helloWorld”的代码。a,b都是tf常量,一个3一个4。但他们是张量,所以+
操作后还是张量,打印出来的并不是7:
Tensor("Const:0", shape=(), dtype=float32)
Tensor("Const_1:0", shape=(), dtype=float32)
Tensor("add:0", shape=(), dtype=float32)
图中的每个指令都拥有唯一的名称。这个名称不是我们变量的名称。张量是根据生成它们的指令命名的,后面跟着输出索引,如上文的 "add:0" 所示。
张量板 tensorBoard
TensorBoard 的功能之一是将图可视化。执行
writer = tf.summary.FileWriter('.')
writer.add_graph(tf.get_default_graph())
将在当前目录中生成一个 event 文件,其名称格式是events.out.tfevents.{timestamp}.{hostname}
。
新建一个终端执行"tensorboard --logdir .
",然后打开http://localhost:6006
就能看到可视图。
会话 session
到目前我们的图还是没运行过,我们看不到3+4的结果是多少。
要运行图,需要通过会话:
sess = tf.Session()
print(sess.run(total))
这样7.0
就打出来了!
一定要记住,图在运行前,张量中的值是不计算的。看下面的例子:
vec = tf.random_uniform(shape=(3,))
out1 = vec + 1
out2 = vec + 2
print(sess.run(out1))
print(sess.run(out2))
print(sess.run((out1, out2)))
tf.random_uniform
会产生一个随机向量。但是你可以看到前两次打印的结果并不是相差1,因为每次运行的时候vec
是不同的。而第三次打印由于vec
只产生一次,它们就相差刚好是1(可能你看到的相差比1大或者小千万分之一)。
占位符
如果tf只支持常量就太难用了,所以最后说一下参数化,类似于一个函数接收几个参数。
x = tf.placeholder(tf.float32)
y = tf.placeholder(tf.float32)
z = x + y
这一段很容易看懂:x,y都是浮点数,到底是多少目前不知道。z是他们的和。
使用的时候要给x.y赋值,需要用feed_dict
以字典形式传入:
print(sess.run(z, feed_dict={x: 3, y: 4.5}))
print(sess.run(z, feed_dict={x: [1, 3], y: [2, 4]}))
这样结果就打出来了。
如果你不小心把x写成了z,而z正是它们的和怎么办?
print(sess.run(z, feed_dict={z: 3, y: 4.5}))
又或者你不小心在字典出现了o,p,q等莫名其妙的键又会怎么样?
结语
以上就是tf的核心概念,其他更复杂的操作都是基于上面这些。