2018-06-06
keras:
1.Embedding层解析
Embedding 层
keras.layers.embedding,Embedding(input_dim, output_dim, embeddings_initializer='uniform',
embeddings_regularize=None, activity_regularizer=None,
embeddings_constraint=None, mask_zero=False, input_length=None)
嵌入层将正整数(下标)转换成具有固定大小的向量,如[[4],[20]]--->[[0.25,0.1],[0.6,-0.2]]
Embedding层只能作为模型的第一层
参数
input_dim
:大或等于0的整数,字典长度,即输入数据最大下标+1
output_dim
:大于0的整数,代表全连接嵌入的维度
embeddings_initialize
r: 嵌入矩阵的初始化方法,为预定义初始化方法名的字符串,或用于初始化权重的初始化器。参考initializers
embeddings_regularizer
: 嵌入矩阵的正则项,为Regularizer对象
embeddings_constraint
: 嵌入矩阵的约束项,为Constraints对象
mask_zero
:布尔值,确定是否将输入中的‘0’看作是应该被忽略的‘填充’(padding)值,该参数在使用递归层处理变长输入时有用。设置为True的话,模型中后续的层必须都支持masking,否则会抛出异常。如果该值为True,则下标0在字典中不可用,input_dim应设置为|vocabulary| + 2。
input_length
:当输入序列的长度固定时,该值为其长度。如果要在该层后接Flatten层,然后接Dense层,则必须指定该参数,否则Dense层的输出维度无法自动推断。
输入shape
形如(samples,sequence_length)的2D张量
输出shape
形如(samples, sequence_length, output_dim)的3D张量
2018-06-12
TensorFlow的基本使用:
tensorflow的特点:
- 使用
图(graph)
来表示计算任务。 - 在被称之为
会话(Session)
的上下文(context)
中执行图。 - 使用
tensor
来表示数据。 - 通过
变量(Variable)
维护状态。 - 使用
feed
和fetch
可以为任意的操作(arbitrary operation)赋值或者熊其中获取数据。
1.TensorFlow综述
tensorflow是一个编程系统,使用图来表示计算任务,图中的节点被称为op(operation的缩写)
。一个op获得0个或者多个Tensor
,执行计算,产生0个或者多个Tensor
。没和Tensor是一个类型化的多维数组,例如,你可以将一小组图像集表示为一个思维浮点数数组,这四个维度分别是[batch, height, width, channels]
。
一个TensorFlow图描述了计算的过程。为了进行计算。图必须在会话(Session)
里被启动,会话
将图的op分发到诸如CPU或者GPU之类的设备
上,同时提供了执行op的方法。这些方法执行后,将产生tensor返回。在python语言中,返回的tensor是Numpyndarray
对象,在C和 C++语言中,返回的tensor是tensorflow::Tensor
实例。
2.TensorFlow计算图
TensorFlow程序通常被组织成一个构建阶段和一个执行阶段。在构建阶段,op的执行步骤被描述成一个图。在执行阶段,使用会话
执行执行图中的op。
例如,通常在构建阶段创建一个图来表示和训练神经网络,然后在执行阶段反复执行图中的训练op。
2.1.TensorFlow构建图
构建图的第一步,是创建op(source op)。源op不需要任何的输入,例如常量(constant)
。源op的输出被传递给其他的op做运算。
python库中,op构造器的返回值代表被构造出的op输出,这些返回值可以传递给其他op构造器作为输入。
TensorFlow python库有一个默认图(default graph),op构造器乐意为其增加节点,这个默认图对许多程序来书已经足够用了。可以通过阅读Graph类文档来了解如何管理多个图。
import tensorflow as tf
# 创建一个常量op,产生一个1*2矩阵,这个op被作为一个节点
# 加到默认图中
#
# 构造器的返回值表示该变量op的返回值
matrix1 = tf.constant([[3., 3.]])
# 创建另外一个常量op,产生一个2*1矩阵
matrix2 = tf.constant([[2.], [2.]])
# 创建一个矩阵乘法matmul op,把matrix1 和 matrix2作为输入
# 返回值'product'代表矩阵乘法的结果
product = tf.matmul(matrix1, matrix2)
默认图现在有三个节点,两个constant()
op,和一个matmul()
op,为了真正的进行矩阵相乘运算,并得到矩阵乘法的结果,必须在会话里启动这个图。
2.2.在一个会话中启动图
构造阶段完成后,才能启动图,启动图的第一步是构建一个Session
对象,如果没有任何创建参数,会话构造器将启动默认图。完整版的会话API,可以参考Session类。
# 启动默认图
sess = tf.Session()
# 调用sess的'run()'方法来执行矩阵乘法op,传入'product'作为该方法的参数
# 上面提到,' product'代表了矩阵乘法op的输出
# 传入它是向方法表明,我们希望取回矩阵乘法的输出
# 整个执行过程是自动化的,会话负责传递op所需的全部输入。op通常是并发执行的
# 返回值'result'是一个numpy'ndarray'对象
result = sess.run(product)
print(result)
#===>[[ 12.]]
# 任务完成,关闭会话
sess.close()
Session
对象在使用完后需要关闭以释放资源,除了显式调用close
之外,也可以使用with
代码块来自动完成关闭动作。
with tf.Session as sess:
result = sess.run(product)
print(result)
在实现上,TensorFlow将图形定义转换成分布式执行的操作,以充分利用可用的计算资源(如CPU或者GPU)。一般你不需要显式的指定使用CPU还是GPU。TensorFlow能自动检测。如果检测到GPU,TensorFlow会尽可能地利用找到的第一个GPU来执行操作。
如果机器上有超过一个可用的GPU,除第一个外其他的GPU默认是不参与计算的,为了让TensorFlow使用这些GPU,你必须将op明确指派给它们执行。with ... Device
语句来指派特定的CPU或GPU执行操作:
with tf.Session() as sess:
with tf.device("/gpu:1"):
matrix1 = tf.constant([[3., 3.]])
matrix2 = tf.constant([[2.],[2.]])
product = tf.matmul(matrix1, matrix2)
...
设备用字符串进行标识,目前支持的设备包括:
-
"/cpu:0"
:机器的CPU。 -
"/gpu:0"
:机器的第一个GPU,如果有的话。 -
"/gpu:1"
:机器的第二个GPU,以此类推。
2.交互式使用
文档中的python示例使用的是一个会话Session
来启动图,并调用Session.run()
方法执行操作。
为了便于使用诸如IPython之类的python交互环境,可以使用InteractiveSession
代替Session
类,使用Tensor.eval()
和Operation.run()
方法代替Session.run()
.这样可以避免使用一个变量来持有会话。
# 进入一个交互式TensorFlow会话
import tensorflow as tf
sess = tf.InteractiveSession()
x = tf.Variable([1.0, 2.0])
a = tf.constant([3.0, 3.0])
# 使用初始化器initializer op 的run()方法初始化'x'
x.initializer.run()
# 增加一个减法 sub op,从'x'减去'a'。运行减法op,输出结果
sub = tf.subtract(x, a)
print(sub.eval())
# ===>[-2. -1.]
Tensor
TensorFlow程序使用tensor数据结构来代表所有的数据,计算图中,操作间传递的数据都是tensor,你可以把TensorFlow tensor看作是一个n维的数组或列表,一个tensor包含一个静态类型rank,和一个shape。Rank,Shape,Type
变量
变量维护图执行过程中的状态信息,下面的例子演示了如何使用变量实现一个简单的计数器。
# 创建一个变量,初始化为标量0
state = tf.Variable(0, name="counter")
# 创建一个op,其作用是使state增加1
one = tf.constant(1)
new_value = tf.add(state, one)
update = tf.assign(state, new_value)
# 启动图后,变量必须先经过初始化'init'op初始化
# 首先必须增加一个初始化 op 到图中
init_op = tf.global_variables_initializer()
# 启动图,运行op
with tf.Session() as sess:
# 运行'init' op
sess.run(init_op)
# 打印'stste'的初始值
print(sess.run(state))
# 运行op更新'state',并打印
for _ in range(3):
sess.run(update)
print(sess.run(state))
#====>0
#====>1
#====>2
#====>3
代码中assign()
操作是图所描述的表达式的一部分,正如add()
操作一样,所以在调用run()
执行表达式之前,它并不会真正执行赋值操作,通常会将一个统计模型中的参数表示为一组变量,例如,你可以将一个神经网络的权重作为某个变量存储在一个tensor中,在训练过程中,通过重复运行训练图,更新这个Tensor。
2018-06-12
fetch
为了取回操作的输出内容,可以在使用Session
对象的run()
调用执行图时,传入一些tensor,这些tensor会帮助你取回结果,在之前的例子里,我们只取回了单个节点state
,但是也可以取回多个tensor:
input1 = tf.constant(1.0)
input2 = tf.constant(2.0)
input3 = tf.constant(5.0)
intermd = tf.add(input2, input3)
mul = tf.multiply(input1, intermd)
with tf.Session() as sess:
result = sess.run([mul, intermd])
print(result)
#===>[7.0, 7.0]
需要获取的多个tensor值,在op的一次运行中一起获得(而不是逐个去获取tensor)。
Feed
上述实例在计算图中引入了tensor,以常量或变量的形式存储,TensorFlow还提供了feed机制,该机制可以临时替代图中的任意操作中的tensor可以对图中任何操作提供补丁,直接插入一个tensor。
feed使用一个tensor值临时替换一个操作的输出结果。你可以提供feed数据作为run()
调用的参数,feed只在调用它的方法内有效,方法结束,feed就会消失。最常见的用例是将某些特殊的操作指定为''feed''操作,标记的方法是使用tf.placeholder()
为这些操作创建占位符。
input1 = tf.placeholder(dtype=tf.float32)
input2 = tf.placeholder(dtype=tf.float32)
output = tf.multiply(input1, input2)
with tf.Session() as sess:
print(sess.run([output], feed_dict={input1:[7.], input2:[2.]}))
# ===>[array([ 14.], dtype=float32)]
如果没有正确的提供feed,placeholder()
操作将会产生错误。
2018-06-15
1.tf.variable()
和tf.get_variable()
:
tf.Variable(initial_value=None, trainable=True, collections=None, validate_shape=True, caching_device=None, name=None,
variable_def=None, dtype=None, expected_shape=None, import_scope=None)
tf.get_variable(name, shape=None, dtype=None, initializer=None, regularizer=None, trainable=True, collections=None,
caching_device=None, partitioner=None, validate_shape=True, custom_getter=None)
在使用tf.Variable()
时,如果检测到命名冲突,系统会自己处理,使用tf.get_variable()
时,系统不会处理冲突,而会报错。