【论文笔记】【短】Improving Neural Fine-Grained Entity Typing with Knowledge Attention

Improving Neural Fine-Grained Entity Typing with Knowledge Attention

最主要的贡献是把entity mention和context work,使用attention进行了运算。取得了不错的结果。

运用上了KB的entity mention的representation。上下文的信息。Attention这些

有一些比较值得注意的细节处理的不错,比如out-of-KB的entity通过context以及mention进行近似的训练。

感觉这篇文章创新点主要是在attention让knowledge与mention,以及context三者的良好结合。针对特殊的情况处理的也比较全面。

【论文笔记】【短】Improving Neural Fine-Grained Entity Typing with Knowledge Attention_第1张图片

你可能感兴趣的:(自然语言处理,神经网络,深度学习)