keras 使用 self-attention

  • self-attention 原理

  • keras 使用 self-attention_第1张图片

 keras 使用self-attention 

  • 安装 
pip install keras-self-attention

 

  • 使用demo
  • import keras
    from keras_self_attention import SeqSelfAttention
    
    
    model = keras.models.Sequential()
    model.add(keras.layers.Embedding(input_dim=10000,
                                     output_dim=300,
                                     mask_zero=True))
    model.add(keras.layers.Bidirectional(keras.layers.LSTM(units=128,
                                                           return_sequences=True)))
    model.add(SeqSelfAttention(attention_activation='sigmoid'))
    model.add(keras.layers.Dense(units=5))
    model.compile(
        optimizer='adam',
        loss='categorical_crossentropy',
        metrics=['categorical_accuracy'],
    )
    model.summary()

    郑重说明

本文内容主要来自于https://pypi.org/project/keras-self-attention/

 

你可能感兴趣的:(python)