【复杂网络建模】——使用PyTorch和DGL库实现图神经网络进行链路预测

‍♂️ 个人主页:@Lingxw_w的个人主页

✍作者简介:计算机科学与技术研究生在读
希望大家多多支持,我们一起进步!
如果文章对你有帮助的话,
欢迎评论 点赞 收藏 加关注+ 

目录

1、常见的链路预测方法

2、图神经网络上的链路预测

3、使用PyTorch和DGL库实现图神经网络进行链路预测


链路预测是指在一个给定的网络中,根据已有的网络结构信息,尝试预测两个节点之间是否存在连接或者可能会建立连接的概率。这在社交网络分析、生物信息学、推荐系统等领域中都有广泛的应用。

在复杂网络中,链路预测可以帮助我们理解网络的演化过程、发现隐藏的关系和未知的连接,以及预测未来的网络演化趋势。

1、常见的链路预测方法

  1. 基于相似性的方法:这类方法假设具有相似性的节点之间更有可能存在连接。常见的相似性度量方法包括共同邻居数、Jaccard系数、Adamic/Adar指数等。

  2. 基于路径的方法:这类方法考虑节点之间的路径信息,比如最短路径、随机游走路径等。通过分析节点之间的路径特征,可以预测节点间的连接概率。

  3. 基于机器学习的方法:这类方法使用机器学习算法来建模和预测网络中的链路。常见的机器学习算法包括决策树、随机森林、支持向量机(SVM)、神经网络等。

  4. 基于深度学习的方法:这是近年来兴起的一种方法,使用深度学习模型(如图神经网络)来学习节点的表征,并通过这些表征来进行链路预测。

链路预测并非一种绝对准确的预测方法,因为网络的演化和连接行为具有一定的随机性。 

2、图神经网络上的链路预测

图神经网络(Graph Neural Networks,简称GNN)可以用于链路预测任务。GNN是一类专门用于处理图结构数据的深度学习模型,能够学习节点和边的特征表示,并在此基础上进行预测任务。

步骤:

  1. 图表示构建:首先,将原始的网络数据表示为图结构,其中节点表示网络中的实体(如用户、物品),边表示节点之间的连接关系(如关注、交互)。

  2. 节点表征学习:GNN通过多轮的消息传递和聚合操作,从节点和边的特征中学习节点的表征。这样,每个节点都会得到一个向量表示,用于捕捉其在网络中的特征和上下文信息。

  3. 边预测模型构建:在节点表征学习的基础上,可以构建一个边预测模型来预测节点之间的连接概率。一种常见的方法是使用一个全连接层或多层感知机(MLP)来将节点表征映射到一个预测分数或概率。可以使用二元分类任务来预测节点间是否存在连接,或者使用回归任务来预测连接的强度或权重。

  4. 模型训练和评估:使用已知的网络结构数据进行模型的训练,并通过验证集或交叉验证进行模型的选择和调优。评估时,可以使用一些常见的指标,如准确率、精确度、召回率、F1分数等来评估链路预测的性能。

3、使用PyTorch和DGL库实现图神经网络进行链路预测

导入必要的库,包括PyTorch和DGL。

import torch
import torch.nn as nn
import dgl

定义图神经网络模型 GNNLinkPredict,模型包含两个图卷积层,输入特征维度为2,输出特征维度为1。

# 定义图神经网络模型
class GNNLinkPredict(nn.Module):
    def __init__(self, in_feats, hidden_size, out_feats):
        super(GNNLinkPredict, self).__init__()
        self.conv1 = dgl.nn.GraphConv(in_feats, hidden_size)
        self.conv2 = dgl.nn.GraphConv(hidden_size, out_feats)
    
    def forward(self, g, features):
        x = torch.relu(self.conv1(g, features))
        x = torch.relu(self.conv2(g, x))
        return x

创建示例图数据 g,其中包括5个节点和7条边。定义节点特征 features,每个节点有两个特征值。定义标签 labels,表示边的连接情况。

# 构建示例图数据
# 创建一个有向图
g = dgl.DGLGraph()
g.add_nodes(5)
g.add_edges([0, 0, 0, 1, 1, 2, 3], [1, 2, 3, 2, 4, 3, 4])

# 定义节点特征
features = torch.tensor([
    [0.2, 0.4],
    [0.3, 0.5],
    [0.4, 0.6],
    [0.5, 0.7],
    [0.6, 0.8]
])

# 定义标签(边是否存在连接)
labels = torch.tensor([1, 1, 1, 0, 0, 1, 0], dtype=torch.float32)

划分训练集和测试集,使用布尔类型的掩码 train_masktest_mask 表示。

# 划分训练集和测试集
train_mask = torch.tensor([True, True, True, False, False])
test_mask = torch.tensor([False, False, False, True, True])

创建图神经网络模型实例 model

定义优化器损失函数,这里使用Adam优化器和二分类的交叉熵损失函数。

# 创建图神经网络模型
model = GNNLinkPredict(in_feats=2, hidden_size=16, out_feats=1)

# 定义优化器和损失函数
optimizer = torch.optim.Adam(model.parameters(), lr=0.01)
criterion = nn.BCEWithLogitsLoss()

进行模型训练。循环迭代多个epoch,在每个epoch中执行以下步骤

  • 将模型设置为训练模式 model.train()
  • 前向传播计算预测结果 logits
  • 计算预测结果与标签之间的损失。
  • 清空优化器的梯度。
  • 反向传播计算梯度。
  • 更新模型参数。
# 训练模型
for epoch in range(50):
    model.train()
    logits = model(g, features)
    pred = logits.squeeze()
    loss = criterion(pred[train_mask], labels[train_mask])
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

    # 打印训练损失
    print(f"Epoch: {epoch + 1}, Loss: {loss.item()}")

在测试集上评估模型。将模型设置为评估模式 model.eval(),然后使用训练好的模型对测试集进行预测。通过将预测结果应用sigmoid函数将其映射到0-1之间,并使用四舍五入将其转换为0或1的预测标签。计算预测准确率并输出。

# 在测试集上评估模型
model.eval()
with torch.no_grad():
    logits = model(g, features)
    pred = logits.squeeze()
    pred = torch.sigmoid(pred)  # 使用sigmoid函数将预测值映射到0-1之间
    pred_labels = torch.round(pred)  # 四舍五入为0或1的预测标签
    accuracy = (pred_labels[test_mask] == labels[test_mask]).float().mean()
    print(f"Accuracy: {accuracy.item()}")

汇总的代码:

# https://www.dgl.ai/pages/start.html

import torch
import torch.nn as nn
import dgl


# 定义图神经网络模型
class GNNLinkPredict(nn.Module):
    def __init__(self, in_feats, hidden_size, out_feats):
        super(GNNLinkPredict, self).__init__()
        self.conv1 = dgl.nn.GraphConv(in_feats, hidden_size)
        self.conv2 = dgl.nn.GraphConv(hidden_size, out_feats)

    def forward(self, g, features):
        x = torch.relu(self.conv1(g, features))
        x = torch.relu(self.conv2(g, x))
        return x


# 构建示例图数据
# 创建一个有向图
g = dgl.DGLGraph()
g.add_nodes(5)
g.add_edges([0, 0, 0, 1, 1, 2, 3], [1, 2, 3, 2, 4, 3, 4])

# 添加自环
g = dgl.add_self_loop(g)

# 定义节点特征
features = torch.tensor([
    [0.2, 0.4],
    [0.3, 0.5],
    [0.4, 0.6],
    [0.5, 0.7],
    [0.6, 0.8]
])

# 定义标签(边是否存在连接)
labels = torch.tensor([1, 1, 1, 0, 0, 1, 0], dtype=torch.float32)

# 划分训练集和测试集
train_mask = torch.tensor([True, True, True, False, False, False, False])
test_mask = torch.tensor([False, False, False, True, True, True, True])

# 创建图神经网络模型
model = GNNLinkPredict(in_feats=2, hidden_size=16, out_feats=1)

# 定义优化器和损失函数
optimizer = torch.optim.Adam(model.parameters(), lr=0.01)
criterion = nn.BCEWithLogitsLoss()

# 训练模型
for epoch in range(50):
    model.train()
    logits = model(g, features)
    pred = logits.squeeze()
    loss = criterion(pred[train_mask], labels[train_mask])
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

    # 打印训练损失
    print(f"Epoch: {epoch + 1}, Loss: {loss.item()}")

# 在测试集上评估模型
model.eval()
with torch.no_grad():
    logits = model(g, features)
    pred = logits.squeeze()
    pred = torch.sigmoid(pred)  # 使用sigmoid函数将预测值映射到0-1之间
    pred_labels = torch.round(pred)  # 四舍五入为0或1的预测标签
    accuracy = (pred_labels[test_mask] == labels[test_mask]).float().mean()
    print(f"Accuracy: {accuracy.item()}")

 留下个问题有空再解决。

关于复杂网络建模,我前面写了很多,大家可以学习参考。

【复杂网络建模】——常用绘图软件和库_图论画图软件

【复杂网络建模】——Pytmnet进行多层网络分析与可视化

【复杂网络建模】——Python通过平均度和随机概率构建ER网络

【复杂网络建模】——通过图神经网络来建模分析复杂网络

【复杂网络建模】——Python可视化重要节点识别(PageRank算法)

【复杂网络建模】——基于Pytorch构建图注意力网络模型

【复杂网络建模】——基于微博数据的影响力最大化算法(PageRank)

你可能感兴趣的:(人工智能,机器学习,深度学习)