图神经网络实战(8)——图注意力网络(Graph Attention Networks, GAT)

图神经网络实战(8)——图注意力网络

    • 0. 前言
    • 1. 图注意力层原理
      • 1.1 线性变换
      • 1.2 激活函数
      • 1.3 Softmax 归一化
      • 1.4 多头注意力
      • 1.5 改进图注意力层
    • 2. 使用 NumPy 中实现图注意力层
    • 3. 使用 PyTorch Geometric 实现 GAT
      • 3.1 在 Cora 数据集上训练 GAT 模型
      • 3.2 在 CiteSeer 数据集上训练 GAT 模型
      • 3.3 误差分析
    • 小结
    • 系列链接

0. 前言

图注意力网络 (Graph Attention Networks, GAT) 是对图卷积网络 (Graph Convolutional Network, GCN) 的改进,提出了一种通过自注意力 (self-attention) 过程计算的加权因子,而不是使用静态的归一化系数。自注意力过程也是最成功的深度学习架构之一——Transformer 的核心,TransformerBERTGPT-3 广泛应用。GAT2017 年由 Veličković 等人提出,凭借其出色的性能,已成为最受欢迎的图神经网络 (Graph Neural Networks, GNN) 架构之一。
在本节中,我们通过四个步骤了解图注意力层的工作原理,这是理解自注意力工作原理的绝佳示例。了解了理论知

你可能感兴趣的:(图神经网络从入门到项目实战,图神经网络,pytorch,图注意力网络,GNN)