GAT关键代码

attention层的实现

重点是理解_prepare_attentional_mechanism_input函数的作用:就是实现了任意两个节点之间进行拼接。也就是对应原文中的这一部分公式:
GAT关键代码_第1张图片

class GraphAttentionLayer(nn.Module):
    """
    Simple GAT layer, similar to https://arxiv.org/abs/1710.10903
    """
    def __init__(self, in_features, out_features, d

你可能感兴趣的:(图学习,深度学习,python,机器学习)