文献阅读(18)NIPS2019-Self-attention with Functional Time Representation Learning

本文是对《Self-attention with Functional Time Representation Learning》一文的浅显翻译与理解,原文章已上传至个人资源,如有侵权即刻删除。

朋友们,我们在github创建了一个图学习笔记库,总结了相关文章的论文、代码和我个人的中文笔记,能够帮助大家更加便捷地找到对应论文,欢迎star~

Chinese-Reading-Notes-of-Graph-Learning

更多相关文章,请移步:文献阅读总结:网络表示学习/图学习

文章目录

  • Title
  • 总结

Title

《Self-attention with Functional Time Representation Learning》
——NIPS2019
Author: Da Xu

总结

文章意图将自注意力机制中的位置编码替换为时间编码,通过自注意力机制可以将节点的邻居信息按照时间顺序进行权重赋值等操作,并最终与节点自身信息相结合,得到节点在任意时间点的嵌入。
文章基于Bochner理论和Mercer理论,提出了两类时间编码算法。
对Bochner理论,算法用核函数替换时间编码函数,并使用傅里叶变换、欧拉公式、蒙特卡洛积分进行推导,问题变为学习频率分布,进而介绍了参数化和无参数化的方法。
对Mercer理论,用核函数替换时间编码函数,再将未知的核函数映射为一组与其有相同性质的核函数。
该文是文献阅读(11)ICLR2020-Inductive representation learning on temporal graphs一文的理论基础,在ICLR2020这篇文章中,仅基于Bochner理论实现了TGAT算法,可以结合阅读。

你可能感兴趣的:(文献阅读,机器学习,深度学习,人工智能)