tensorflow篇


2018-06-06

keras:

1.Embedding层解析

  • Embedding 层
keras.layers.embedding,Embedding(input_dim, output_dim, embeddings_initializer='uniform', 
                                 embeddings_regularize=None, activity_regularizer=None,
                                 embeddings_constraint=None, mask_zero=False, input_length=None)

嵌入层将正整数(下标)转换成具有固定大小的向量,如[[4],[20]]--->[[0.25,0.1],[0.6,-0.2]]
Embedding层只能作为模型的第一层
参数
input_dim:大或等于0的整数,字典长度,即输入数据最大下标+1
output_dim:大于0的整数,代表全连接嵌入的维度
embeddings_initializer: 嵌入矩阵的初始化方法,为预定义初始化方法名的字符串,或用于初始化权重的初始化器。参考initializers
embeddings_regularizer: 嵌入矩阵的正则项,为Regularizer对象
embeddings_constraint: 嵌入矩阵的约束项,为Constraints对象
mask_zero:布尔值,确定是否将输入中的‘0’看作是应该被忽略的‘填充’(padding)值,该参数在使用递归层处理变长输入时有用。设置为True的话,模型中后续的层必须都支持masking,否则会抛出异常。如果该值为True,则下标0在字典中不可用,input_dim应设置为|vocabulary| + 2。
input_length:当输入序列的长度固定时,该值为其长度。如果要在该层后接Flatten层,然后接Dense层,则必须指定该参数,否则Dense层的输出维度无法自动推断。
输入shape
形如(samples,sequence_length)的2D张量
输出shape
形如(samples, sequence_length, output_dim)的3D张量


2018-06-12

TensorFlow的基本使用:

tensorflow的特点:

  • 使用图(graph)来表示计算任务。
  • 在被称之为会话(Session)上下文(context)中执行图。
  • 使用tensor来表示数据。
  • 通过变量(Variable)维护状态。
  • 使用feedfetch可以为任意的操作(arbitrary operation)赋值或者熊其中获取数据。

1.TensorFlow综述

tensorflow是一个编程系统,使用图来表示计算任务,图中的节点被称为op(operation的缩写)。一个op获得0个或者多个Tensor,执行计算,产生0个或者多个Tensor。没和Tensor是一个类型化的多维数组,例如,你可以将一小组图像集表示为一个思维浮点数数组,这四个维度分别是[batch, height, width, channels]
一个TensorFlow图描述了计算的过程。为了进行计算。图必须在会话(Session)里被启动,会话将图的op分发到诸如CPU或者GPU之类的设备上,同时提供了执行op的方法。这些方法执行后,将产生tensor返回。在python语言中,返回的tensor是Numpyndarray对象,在C和 C++语言中,返回的tensor是tensorflow::Tensor实例。

2.TensorFlow计算图

TensorFlow程序通常被组织成一个构建阶段和一个执行阶段。在构建阶段,op的执行步骤被描述成一个图。在执行阶段,使用会话执行执行图中的op。
例如,通常在构建阶段创建一个图来表示和训练神经网络,然后在执行阶段反复执行图中的训练op。

2.1.TensorFlow构建图

构建图的第一步,是创建op(source op)。源op不需要任何的输入,例如常量(constant)。源op的输出被传递给其他的op做运算。
python库中,op构造器的返回值代表被构造出的op输出,这些返回值可以传递给其他op构造器作为输入。
TensorFlow python库有一个默认图(default graph),op构造器乐意为其增加节点,这个默认图对许多程序来书已经足够用了。可以通过阅读Graph类文档来了解如何管理多个图。

import tensorflow as tf 
# 创建一个常量op,产生一个1*2矩阵,这个op被作为一个节点
# 加到默认图中
#
# 构造器的返回值表示该变量op的返回值
matrix1 = tf.constant([[3., 3.]])

# 创建另外一个常量op,产生一个2*1矩阵
matrix2 = tf.constant([[2.], [2.]])

# 创建一个矩阵乘法matmul op,把matrix1 和 matrix2作为输入
# 返回值'product'代表矩阵乘法的结果
product = tf.matmul(matrix1, matrix2)

默认图现在有三个节点,两个constant()op,和一个matmul()op,为了真正的进行矩阵相乘运算,并得到矩阵乘法的结果,必须在会话里启动这个图。

2.2.在一个会话中启动图

构造阶段完成后,才能启动图,启动图的第一步是构建一个Session对象,如果没有任何创建参数,会话构造器将启动默认图。完整版的会话API,可以参考Session类。

# 启动默认图
sess = tf.Session()

# 调用sess的'run()'方法来执行矩阵乘法op,传入'product'作为该方法的参数
# 上面提到,' product'代表了矩阵乘法op的输出
# 传入它是向方法表明,我们希望取回矩阵乘法的输出
# 整个执行过程是自动化的,会话负责传递op所需的全部输入。op通常是并发执行的
# 返回值'result'是一个numpy'ndarray'对象
result = sess.run(product)
print(result)
#===>[[ 12.]]
# 任务完成,关闭会话
sess.close()

Session对象在使用完后需要关闭以释放资源,除了显式调用close之外,也可以使用with代码块来自动完成关闭动作。

with tf.Session as sess:
  result = sess.run(product)
  print(result)

在实现上,TensorFlow将图形定义转换成分布式执行的操作,以充分利用可用的计算资源(如CPU或者GPU)。一般你不需要显式的指定使用CPU还是GPU。TensorFlow能自动检测。如果检测到GPU,TensorFlow会尽可能地利用找到的第一个GPU来执行操作。
如果机器上有超过一个可用的GPU,除第一个外其他的GPU默认是不参与计算的,为了让TensorFlow使用这些GPU,你必须将op明确指派给它们执行。with ... Device语句来指派特定的CPU或GPU执行操作:

with tf.Session() as sess:
  with tf.device("/gpu:1"):
    matrix1 = tf.constant([[3., 3.]])
    matrix2 = tf.constant([[2.],[2.]])
    product = tf.matmul(matrix1, matrix2)
    ...

设备用字符串进行标识,目前支持的设备包括:

  • "/cpu:0":机器的CPU。
  • "/gpu:0":机器的第一个GPU,如果有的话。
  • "/gpu:1":机器的第二个GPU,以此类推。

2.交互式使用

文档中的python示例使用的是一个会话Session来启动图,并调用Session.run()方法执行操作。
为了便于使用诸如IPython之类的python交互环境,可以使用InteractiveSession代替Session类,使用Tensor.eval()Operation.run()方法代替Session.run().这样可以避免使用一个变量来持有会话。

# 进入一个交互式TensorFlow会话
import tensorflow as tf
sess = tf.InteractiveSession()

x = tf.Variable([1.0, 2.0])
a = tf.constant([3.0, 3.0])

# 使用初始化器initializer op 的run()方法初始化'x'
x.initializer.run()

# 增加一个减法 sub  op,从'x'减去'a'。运行减法op,输出结果
sub = tf.subtract(x, a)
print(sub.eval())
# ===>[-2. -1.]

Tensor

TensorFlow程序使用tensor数据结构来代表所有的数据,计算图中,操作间传递的数据都是tensor,你可以把TensorFlow tensor看作是一个n维的数组或列表,一个tensor包含一个静态类型rank,和一个shape。Rank,Shape,Type

变量

变量维护图执行过程中的状态信息,下面的例子演示了如何使用变量实现一个简单的计数器。

# 创建一个变量,初始化为标量0
state = tf.Variable(0, name="counter")

# 创建一个op,其作用是使state增加1

one = tf.constant(1)
new_value = tf.add(state, one)
update = tf.assign(state, new_value)

# 启动图后,变量必须先经过初始化'init'op初始化
# 首先必须增加一个初始化 op 到图中
init_op = tf.global_variables_initializer()

# 启动图,运行op
with tf.Session() as sess:
     # 运行'init' op
     sess.run(init_op)
     # 打印'stste'的初始值
     print(sess.run(state))
     # 运行op更新'state',并打印
     for _ in range(3):
          sess.run(update)
          print(sess.run(state))
#====>0
#====>1
#====>2
#====>3

代码中assign()操作是图所描述的表达式的一部分,正如add()操作一样,所以在调用run()执行表达式之前,它并不会真正执行赋值操作,通常会将一个统计模型中的参数表示为一组变量,例如,你可以将一个神经网络的权重作为某个变量存储在一个tensor中,在训练过程中,通过重复运行训练图,更新这个Tensor。


2018-06-12

fetch

为了取回操作的输出内容,可以在使用Session对象的run()调用执行图时,传入一些tensor,这些tensor会帮助你取回结果,在之前的例子里,我们只取回了单个节点state,但是也可以取回多个tensor:

input1 = tf.constant(1.0)
input2 = tf.constant(2.0)
input3 = tf.constant(5.0)
intermd = tf.add(input2, input3)
mul = tf.multiply(input1, intermd)

with tf.Session() as sess:
     result = sess.run([mul, intermd])
     print(result)
#===>[7.0, 7.0]

需要获取的多个tensor值,在op的一次运行中一起获得(而不是逐个去获取tensor)。

Feed

上述实例在计算图中引入了tensor,以常量或变量的形式存储,TensorFlow还提供了feed机制,该机制可以临时替代图中的任意操作中的tensor可以对图中任何操作提供补丁,直接插入一个tensor。
feed使用一个tensor值临时替换一个操作的输出结果。你可以提供feed数据作为run()调用的参数,feed只在调用它的方法内有效,方法结束,feed就会消失。最常见的用例是将某些特殊的操作指定为''feed''操作,标记的方法是使用tf.placeholder()为这些操作创建占位符。

input1 = tf.placeholder(dtype=tf.float32)
input2 = tf.placeholder(dtype=tf.float32)
output = tf.multiply(input1, input2)

with tf.Session() as sess:
     print(sess.run([output], feed_dict={input1:[7.], input2:[2.]}))
# ===>[array([ 14.], dtype=float32)]

如果没有正确的提供feed,placeholder()操作将会产生错误。


2018-06-15

1.tf.variable()tf.get_variable()

tf.Variable(initial_value=None, trainable=True, collections=None, validate_shape=True, caching_device=None, name=None, 
variable_def=None, dtype=None, expected_shape=None, import_scope=None)
tf.get_variable(name, shape=None, dtype=None, initializer=None, regularizer=None, trainable=True, collections=None, 
caching_device=None, partitioner=None, validate_shape=True, custom_getter=None)

在使用tf.Variable()时,如果检测到命名冲突,系统会自己处理,使用tf.get_variable()时,系统不会处理冲突,而会报错。

你可能感兴趣的:(tensorflow篇)