arXiv综述论文“Graph Neural Networks: A Review of Methods and Applications”

arXiv于2019年7月10日上载的GNN综述论文“Graph Neural Networks:
A Review of Methods and Applications“。
arXiv综述论文“Graph Neural Networks: A Review of Methods and Applications”_第1张图片
摘要:许多学习任务需要处理图数据,该图数据包含元素之间的丰富关系信息。建模物理系统、学习分子指纹、预测蛋白质界面以及对疾病进行分类都需要一个模型从图输入学习。在其他如文本和图像之类非结构数据学习的领域中,对提取的结构推理,例如句子的依存关系树和图像的场景图,是一个重要的研究课题,它也需要图推理模型。图神经网络(GNN)是连接主义(connectionist )模型,可通过图节点之间传递消息来捕获图的依赖性。与标准神经网络不同,图神经网络保留了一种状态,该状态可从其邻域以任意深度表示信息。尽管发现原始GNN对固定点难以训练,但是网络体系结构、优化技术和并行计算的最新进展已能做到成功学习。近年来,基于图神经网络变型的系统,例如图卷积网络(GCN)、图注意力网络(GAT)、门控图神经网络(GGNN),已在上述许多任务有所突破。本次综述对现有的图神经网络模型进行了详细的回顾,对应用程序进行了系统分类,并提出了四个未解决的问题,以供将来研究。

GNN的局限性在于:

  1. 针对固定点迭代更新节点的隐状态效率低下。如果放宽不动点的假设,可以设计一个多层GNN以获得节点及其邻域的稳定表示。
  2. GNN在迭代中使用相同的参数,而最流行的神经网络在不同的层中使用不同的参数࿰

你可能感兴趣的:(自动驾驶)