自定义 attention 层 load_model 出现的问题

1.ValueError: Unknown layer: Attention,无法识别 attention 层。

2.TypeError: init() missing 1 required positional argument: '***',加载参数有误。

 

针对问题 1 ,需要在 load_model 前参考如下修改:

from *** import ***_Attention
my_Attention = Attention()
model = load_model('*** model.h5', custom_objects={'*** Attention': my_Attention})

针对问题 2,两个思路,第一是修改 attention 层的 __init__() 函数,给定初值。第二是在 attention 的 class 之中添加 get_config() 函数。

思路一:
def __init__(self, attention_size=128, **kwargs):
    self.attention_size = attention_size
    super(Hierarchy_Attention, self).__init__(**kwargs)


思路二:
def get_config(self):
    config = {'attention_size': self.attention_size}
    base_config = super(Hierarchy_Attention, self).get_config()
    return dict(list(base_config.items()) + list(config.items()))

 

参考链接,Keras 报错解决记录,用keras调用load_model时报错ValueError: Unknown Layer:LayerName,can not load_model() or load_from_json() if my model contains my own Layer #8612,keras/keras/layers/convolutional.py。

 

 

                                                                        

你可能感兴趣的:(一些坑,深度学习)