tf.keras.layers.Lambda()——匿名函数层解析

1. 参数列表

tf.keras.layers.Lambda()——匿名函数层解析_第1张图片

2. 作用

tf.keras.layers.Lambda()——匿名函数层解析_第2张图片

  • 可以把任意的一个表达式作为一个“Layer”对象
  • Lambda层之所以存在是因为它可以在构建Squential时使用任意的函数或者说tensorflow 函数。
  • 在我们需要完成一些简单的操作(例如VAE中的重采样)的情况下,Lambda层再适合不过了。

3. 举个栗子(VAE)

  • 可以看到通过在encoder和decoder中间加入一个Lambda层使得encoder和decoder连接起来,很方便
def sampling(agrs):
    mean,logvar = agrs[0],agrs[1]
    eps = tf.random.normal(tf.shape(mean))
    
    return mean + eps*tf.exp(logvar * 0.5)


# 编码阶段
    
x = layers.Input(shape=(784,))  # 输入层
    
h1 = layers.Dense(200,activation='softplus')(x)
h2 = layers.Dense(200,activation='softplus')(h1)
# 均值和方差层不需要激活函数
mean = layers.Dense(latent_dimension)(h2)
log_var = layers.Dense(latent_dimension)(h2)
    
# 将采样过程看成一个Lambda层,这里利用自定义的sampling函数
z = layers.Lambda(sampling,output_shape=(latent_dimension,))([mean,log_var])
    
# 解码阶段
h3 = layers.Dense(200,activation='softplus')
h4 = layers.Dense(200,activation='softplus')
h5 = layers.Dense(200,activation='softplus')
# No activation
end = layers.Dense(784)
z1 = h3(z)
z2 = h4(z1)
z3 = h5(z2)
out = end(z3)
    
# 建立模型
model = tf.keras.Model(x,out)

4. Lambda层的缺点

  • Lambda层虽然很好用,但是它不能去更新我们模型的配置信息,就是不能重写’model.get_config()'方法
  • 所以tensorflow提议,尽量使用自定义层(即tf.keras.layers的子类)
  • 关于自定义层,我的博客有一期会专门讲

总结

当网络需要完成一些简单的操作时,可以考虑使用Lambda层。

你可能感兴趣的:(tensorflow学习,深度学习)