Keras的自定义lambda层去reshape tensor张量时model保存出错的解决办法

背景

          分割网络在进行上采样的时候我用的是双线性插值上采样的,而Keras里面并没有实现双线性插值的函数,所以要自己调用tensorflow里面的tf.image.resize_bilinear()函数来进行resize,如果直接用tf.image.resize_bilinear()函数对Keras张量进行resize的话,会报出异常,大概意思是tenorflow张量不能转换为Keras张量,要想将Kears Tensor转换为 Tensorflow Tensor需要进行自定义层,Keras自定义层的时候需要用到Lambda层来包装。大概源码(只是大概意思)如下:


   
   
   
   
  1. from keras.layers import Lambda
  2. import tensorflow as tf
  3. first_layer=Input(batch_shape=( None, 64, 32, 3))
  4. f=Conv2D(filters, 3, activation = None, padding = 'same', kernel_initializer = 'glorot_normal',name= 'last_conv_3')(x)
  5. upsample_bilinear = Lambda( lambda x: tf.image.resize_bilinear(x,size=first_layer.get_shape().as_list()[ 1: 3]))
  6. f=upsample_bilinear(f)

然后编译 这个源码:


   
   
   
   
  1. optimizer = SGD(lr= 0.01, momentum= 0.9)
  2. model.compile(optimizer = optimizer, loss = model_dice, metrics = [ 'accuracy'])
  3. model.save( 'model.hdf5')

其中要注意到这个tf.image.resize_bilinear()里面的size,我用的是根据张量(first_layer)的形状来做为reshape后的形状,保存模型用的是model.save().然后就会出现以下错误!

 

 

异常描述:

            在一个epoch完成后保存model时出现下面错误,五个错误提示随机出现

  •           TypeError: cannot serialize ‘_io.TextIOWrapper’ object

  •           TypeError: object.new(PyCapsule) is not safe, use PyCapsule.new()

  •            AttributeError: ‘NoneType’ object has no attribute ‘update’

  •           TypeError: cannot deepcopy this pattern object

  •           TypeError: can’t pickle module objects

 

 

问题分析:

这个有两方面原因:

  1. tf.image.resize_bilinear()中的size不应该用另一个张量的size去指定。

  2. 如果用了另一个张量去指定size,用model.save()来保存model是不能序列化的。那么保存model的时候只能保存权重——model.save_weights('mode_weights.hdf5')

 

 

 

解决办法(两种):

       1.tf.image.resize_bilinear()size用常数去指定

upsample_bilinear = Lambda(lambda x: tf.image.resize_bilinear(x,size=[64,32]))
   
   
   
   

     2.如果用了另一个张量去指定size,那么就修改保存模型的函数,变成只保存权重

model.save_weights('model_weights.hdf5')
   
   
   
   

 

 

 

总结:

  • ​​​​我想使用kerasLambda层去reshape一个张量

  • 如果为重塑形状指定了张量,则保存模型(保存)将失败

  • 您可以使用save_weights而不是save进行保存

你可能感兴趣的:(深度学习)