论文链接:https://arxiv.org/pdf/2008.08692.pdf
目录
摘要
1 简介
2 问题定义
3 拟议模型
3.1 模型概述
3.2 标签感知相似性度量
3.3 相似性感知的邻居选择器
3.3.1 Top-p 采样
3.3.2 使用 RL 找到最佳阈值
3.4 关系感知邻居聚合器
3.5 提出的 CARE-GNN
4 实验
4.1实验设置
4.1.1 数据集
4.1.2 图的构建
4.1.3 基线
4.1.4 实验设置
4.1.5 实施
4.1.6 评价指标
4.2 伪装证据
4.3 总体评价
近年来,图神经网络(GNN)被广泛应用于欺诈检测问题,通过不同关系聚合节点的邻域信息来揭示节点的可疑性。
动机:然而,之前很少有工作注意到欺诈者的伪装行为,这可能会在聚合过程中阻碍基于 GNN 的欺诈检测器的性能。
在本文中,我们根据最近的实证研究介绍了两种类型的伪装,即特征伪装和关系伪装。现有的 GNN 没有解决这两种伪装,这导致它们在欺诈检测问题上的表现不佳。我们提出了一个名为 CAmouflage-REsistant GNN (CARE-GNN) 的新模型,以通过三个独特的模块来增强 GNN 聚合过程以防止伪装。
具体来说,我们首先设计了一种标签感知相似性度量来找到信息丰富的相邻节点。
然后,我们利用强化学习 (RL) 来找到要选择的最佳邻居数量。
最后,将跨不同关系的选定邻居聚合在一起。
对两个真实世界欺诈数据集的综合实验证明了 RL 算法的有效性。拟议的 CARE-GNN 也优于最先进的 GNN 和基于 GNN 的欺诈检测器。
我们将所有基于 GNN 的欺诈检测器集成为一个开源工具箱。 CARE-GNN 代码和数据集可在 https://github.com/YingtongDou/CARE-GNN 获取。
关键词 图神经网络,欺诈检测,强化学习
随着 Internet 服务的蓬勃发展,它们也孕育了各种欺诈活动 [14]。欺诈者伪装成普通用户以绕过反欺诈系统并散布虚假信息 [44] 或获取最终用户的隐私 [32]。为了检测这些欺诈活动,基于图的方法已成为学术界 [7、21、38] 和工业界 [2、28、50] 的有效方法。基于图的方法连接具有不同关系的实体,并在图级别揭示这些实体的可疑性,因为具有相同目标的欺诈者倾向于相互连接 [1]。
GNN应用与欺诈检测:最近,随着图神经网络(GNN)(例如 GCN [17]、GAT [34] 和 GraphSAGE [12])的发展,许多基于 GNN 的欺诈检测器被提出来检测意见欺诈 [19, 25, 39]、金融欺诈 [23、24、37]、移动欺诈 [41] 和网络犯罪 [48]。与传统的基于图的方法相比,基于 GNN 的方法聚合邻域信息以学习具有神经模块的中心节点的表示。它们可以以端到端和半监督的方式进行训练,从而节省大量的特征工程和数据注释成本。
现有方法使用GNN的局限性:然而,现有的基于 GNN 的欺诈检测工作仅在狭窄的范围内应用 GNN,而忽略了欺诈者的伪装行为,这引起了研究人员 [8, 15, 16, 49] 和从业者的极大关注 [2, 19, 41] ].同时,理论研究证明了当图具有噪声节点和边时 GNN 的局限性和脆弱性 [3、4、13、33]。因此,未能解决伪装的欺诈者会破坏基于 GNN 的欺诈检测器的性能。尽管最近的一些作品 [4、9、13、25、41] 已经注意到了类似的挑战,但他们的解决方案要么无法解决欺诈检测问题,要么打破了 GNN 的端到端学习方式。
可视化显示欺诈者对GNN聚合的影响: 为了演示伪装的欺诈者在 GNN 的邻居聚合过程中引起的挑战,如图 1 所示,我们构建了一个具有两种关系和两种类型实体的图。
(两种类型的欺诈者伪装。 (1) 特征伪装:欺诈者在文本中添加特殊字符,使其对基于特征的垃圾邮件检测器具有欺骗性。 (2) 关系伪装:中心欺诈者在关系 II 下连接到许多良性实体以减弱其可疑性。)
该关系可以是假设由相似实体共享的任何公共属性(例如,用户-IP-用户关系连接具有相同 IP 地址的实体)。有两种类型的伪装如下:1)特征伪装:聪明的欺诈者可以调整他们的行为[8, 10],在评论中添加特殊字符[19, 41](所谓的垃圾伪装),或者使用深度语言生成模型 [15] 来掩盖明显的可疑结果。如图 1 所示,欺诈者可以在虚假评论中添加一些特殊字符,这有助于绕过基于特征的检测器 [41]。2)关系伪装:之前的作品 [16, 49] 表明群体工作者正在在线社交网络上积极进行意见欺诈。他们可以调查防御者使用的图表 [43] 并调整他们的行为以减轻怀疑 [44]。具体来说,这些狡猾的欺诈者通过连接到许多良性实体(即发布定期评论或连接到信誉良好的用户)来伪装自己。如图 1 所示,在关系 II 下,良性实体多于欺诈者。
将 GNN 直接应用于带有伪装欺诈者的图会阻碍 GNN 的邻居聚合过程。如图 1 所示,如果我们将具有有趣评论的邻居聚合为节点特征,它可能会消除中心欺诈者的怀疑 [13、25]。同样,如果我们在关系 II 下聚合所有的邻居,那里有更多不同的邻居,它将消除中心欺诈者的怀疑。
应对问题的解决方案:考虑到现实世界中欺诈者的敏捷性 [8, 10],设计基于 GNN 的检测器来准确捕获这些伪装的欺诈者是不切实际的。因此,基于两种伪装的结果和 GNN 的聚合过程,我们提出了三个神经模块来增强 GNN 对抗伪装的能力。 1)对于特征伪装,我们提出了一种标签感知的相似性度量,以根据节点特征找到最相似的邻居。具体来说,我们设计了一个神经分类器作为相似性度量,它根据具有领域知识的专家(即注释数据)直接优化。 2)对于关系伪装,我们设计了一个相似性感知的邻居选择器来选择关系内中心节点的相似邻居。此外,我们利用强化学习 (RL) 自适应地找到最佳邻居选择阈值以及 GNN 训练过程。 3) 我们利用 RL 学习的邻居过滤阈值来制定一个关系感知邻居聚合器,它结合来自不同关系的邻居信息并获得最终的中心节点表示。
我们将上述三个模块与通用 GNN 框架集成在一起,并将我们的模型命名为 CA mouflage REsistant G raph N eural N etwork (CARE-GNN)。在两个真实世界的欺诈数据集上的实验结果表明,我们的模型提高了带有伪装欺诈者的图的 GNN 性能。所提出的邻居选择器可以找到最佳邻居,并且 CARE-GNN 在各种设置下都优于最先进的基线。
我们强调 CARE-GNN 的优势如下:
• 适应性。 CARE-GNN 在给定任意多关系图的情况下自适应地选择最佳邻居进行聚合。
• 高效率。 CARE-GNN 在没有注意力和深度强化学习的情况下具有很高的计算效率。
• 灵活性。许多其他神经模块和外部知识可以插入 CARE-GNN。
在本节中,我们首先定义多关系图和基于图的欺诈检测问题。然后,我们介绍如何将 GNN 应用于欺诈检测问题。表 1 总结了本文中的所有重要符号。
定义 2.1:多关系图。我们将多关系图定义为 ,其中 V 是节点集 {v1, . . . , vn}。每个节点 vi 都有一个 d 维特征向量 xi ∈ Rd 并且 X = {x1, . . . , xn } 表示所有节点特征的集合。 er i, j = (vi , vj ) ∈ Er 是 vi 和 vj 之间的边,具有关系 r ∈ {1, · · · , R}。请注意,一条边可以与多个关系相关联,并且有 R 种不同类型的关系。 Y 是 V 中每个节点的一组标签。
定义 2.2: 图上的欺诈检测。对于欺诈检测问题,节点 v 表示目标实体其可疑性需要被证明。例如,它可以是评论网站上的评论 [19, 29] 或交易系统中的交易 [23, 37]。该节点有一个标签 yv ∈ {0, 1} ∈ Y,其中 0 表示良性,1 表示可疑。关系 R 是节点之间的规则、交互或共享属性,例如,来自同一用户的两条评论 [25] 或来自同一设备的交易 [24]。基于图的欺诈检测问题是图上的半监督二进制节点分类问题。基于图的欺诈检测器基于标记的节点信息以及由多关系组成的图进行训练。然后使用训练过的模型来预测未标记节点的可疑性。
定义 2.3:基于 GNN 的欺诈检测。图神经网络 (GNN) 是一种深度学习框架,通过聚合来自其相邻节点的信息来嵌入图结构数据 [12,17,34]。基于定义 2.2 中定义的多关系图,我们从邻居聚合的角度统一了 GNN 的公式(如图 2 左侧所示):
对于中心节点 v,是第 l 层的隐藏嵌入, 是输入特征。 表示在第 l 层的关系 r 下的边。 是相邻节点 v′ 在关系 r 下的嵌入。 AGG表示将来自不同关系的邻域信息映射到向量的聚合函数,例如均值聚合[12]和注意力聚合[34]。 ⊕ 是结合 v 的信息及其相邻信息的运算符,例如连接或求和 [12]。
对于欺诈检测问题,我们首先构建一个基于领域知识的多关系图。然后,GNN 使用由二元分类损失函数监督的部分标记节点进行训练。我们不是直接聚合所有关系的邻居,而是将聚合部分分离为关系内聚合和关系间聚合过程。在内部关系聚合过程中,每个关系下的邻居嵌入被同时聚合。然后,在相互关系聚合过程中组合每个关系的嵌入。最后,最后一层的节点嵌入用于预测。
所提出的 CARE-GNN 具有三个神经模块,其管道如图 2 所示。对于中心节点 v,我们首先根据所提出的标签感知相似性度量计算其邻居相似性(第 3.2 节)。
然后我们用提议的邻居选择器过滤每个关系下的不同邻居(章节3.3)。在训练 GNN 期间使用强化学习优化邻居选择器(图 2 中的紫色模块)。在聚合步骤中,我们首先使用内部关系聚合器聚合每个关系下的邻居嵌入。然后,我们将跨不同关系的嵌入与相互关系聚合器结合起来(第 3.4 节)。优化步骤和算法过程分别在第 3.5 节和算法 1 中介绍。
先前的研究从行为 [8, 10] 和语义 [15, 41] 的角度介绍了各种欺诈者伪装类型。这些伪装可以使欺诈者和良性实体的特征彼此相似,并进一步误导 GNN 生成无信息的节点嵌入。
前人方法局限性:为了解决这些节点特征伪装,我们认为在应用 GNN 之前需要一种有效的相似性度量来过滤伪装的邻居。以前的工作提出了无监督的相似性度量,如余弦相似性 [25] 或神经网络 [45]。然而,许多欺诈问题,如金融欺诈和意见欺诈,需要额外的领域知识来识别欺诈实例。例如,在意见欺诈中,无监督相似性度量无法识别伪装的虚假评论,人类甚至无法区分它们 [15]。
方法:因此,我们需要一个参数化的相似性度量来计算节点与来自领域专家的监督信号(例如,高保真数据注释)的相似性。
对于参数化相似性度量,AGCN [20] 采用马氏距离加高斯核,DIAL-GNN [6] 使用参数化余弦相似性。然而,这两种类型的度量都具有高时间复杂度 O(|V | ̄Dd),其中 ̄D 是节点的平均度,这在现实世界的图中非常高(见表 2),d 是特征维度。
标签感知相似性度量。受使用多层感知器(MLP)作为边标签预测器的 LAGCN [4] 的启发,我们在每一层采用单层 MLP 作为节点标签预测器,并使用两个节点预测结果之间的 l1 距离作为他们的相似性度量。
对于第l层关系r下的中心节点v,边, v与v '之间的距离为两个嵌入的l1距离:
我们可以将相似性度量定义为:
其中每一层都有自己的相似性度量。 MLP 在第 l 层的输入是前一层的节点嵌入,MLP 的输出是一个标量,然后将其输入非线性激活函数 σ(我们在工作中使用 tanh)。为了节省计算成本,我们只将节点本身的嵌入作为输入,而不是像 LAGCN [4] 那样使用组合嵌入。
因此,以 为例,输入是原始特征,所提出的相似性度量的时间复杂度从 O(|V | ̄Dd) 显着降低到 O(|V | d) 因为它仅根据其特征预测节点标签。
优化。为了与 GNN 一起训练相似性度量,一种启发式方法是将其作为新层附加到 GCN [20] 的聚合层之前。然而,如果相似性度量不能有效地过滤第一层的伪装邻居,它将阻碍后续 GNN 层的性能。因此,MLP 参数无法通过反向传播过程得到很好的更新。为了使用来自标签的直接监督信号训练相似性的度量,例如 [35],我们将 MLP 在 l 层的交叉熵损失定义为:
在训练过程中,通过上述损失函数直接更新相似性度量参数。它保证可以在前几批中快速选择相似的邻居,并帮助规范 GNN 训练过程。
给定中心节点与其邻居之间的相似性分数与等式 (3),我们应该选择相似的邻居(即过滤伪装的邻居)来提高 GNN 的能力。
根据关系伪装,欺诈者可能会在不同关系下连接到不同数量的良性实体 [44]。然而,由于数据标注对于现实世界的欺诈检测问题代价高昂,因此不可能通过数据标注来计算每个关系下相似邻居的数量。我们应该设计一个自适应过滤/采样标准来自动选择最佳数量的相似邻居。因此,我们设计了一个相似性感知的邻居选择器。它使用具有自适应过滤阈值的 top-p 采样在每个关系下选择相似的邻居。我们还设计了一种强化学习 (RL) 算法,以在 GNN 训练过程中找到最佳阈值。
我们使用 top-p 采样来过滤每个关系下的伪装邻居。第 l 层关系 r 的过滤阈值为 ∈ [0, 1]。闭区间意味着我们可以丢弃或保留一个节点的所有邻居在一个关系下。具体来说,在训练阶段,对于关系r下当前批处理中的节点v,我们首先在的第l层,使用Eq.(3)计算一组相似分数。E(l)r是关系r下的第l层边的集合。然后我们根据 降序排列它的邻居,并取 邻居 作为第 l 层的选定邻居。所有其他节点在当前批次中被丢弃,不会参与聚合过程。 top-p 采样过程应用于每个关系的每一层的中心节点。
前人寻找阈值方法:以前的作品 [6、25] 将过滤阈值设置为超参数,并通过验证对其进行调整以找到最佳值。
然而,他们的模型建立在同质基准图上,并且没有伪装欺诈者引起的噪音。
方法:然而,由于欺诈问题的多关系图以及关系伪装问题,我们需要一种自动方法来为每个关系找到最佳阈值。由于 是一个概率并且没有梯度,我们不能使用分类损失的反向传播来更新它。
同时,给定 ,仅根据当前批次/时期下的相似度分数来估计所选邻居的质量是不可行的。为了克服上述挑战,我们建议采用强化学习 (RL) 框架来寻找最佳阈值.
具体来说,我们将 RL 过程表示为邻居选择器和具有相似性度量的 GNN 之间的伯努利多武装强盗 (BMAB) B(A, f,T)。 A 是动作空间,f 是奖励函数,T 是终止条件 [36]。给定初始 ,邻居选择器选择增加或减少 作为动作,奖励取决于两个连续时期之间的平均距离差。接下来,我们详细介绍每个BMAB组件:
行动。该动作表示 RL 如何根据奖励更新。由于 ∈ [0, 1],我们将动作 定义为从加上或减去一个固定的小值 τ ∈ [0, 1]。
奖励。最优期望在第l层找到关系r下的中心节点的最相似 (即公式 (2) 中的最小距离) 邻居。由于GNN的黑盒性质,我们无法感知其状态; 因此,我们仅根据两个连续时期之间的平均距离差异来设计二元随机奖励。时期e的第l层关系r的平均邻居距离为:
然后,我们可以将 epoch e 的奖励定义为:
当 epoch e 新选择的邻居的平均距离小于前一个 epoch 的平均距离时,奖励为正,反之亦然。估计累积奖励并不容易。因此,我们使用立即奖励来贪婪地更新动作而不进行探索。具体来说,我们增加正奖励的 ,反之亦然。
终止。我们将 RL 的终止条件定义为:
这意味着 RL 在最近的十个 epoch 中收敛并表明发现了最佳阈值 。 RL 模块终止后,过滤阈值固定为最优阈值,直到 GNN 收敛。
讨论。在相同的关系下,不同的节点类可能有不同数量的相似邻居。
例如,如表 2 所示,在 Yelp 数据集的 R-S-R 关系下,对于正节点,只有 5% 的邻居具有相同的标签。这是由于欺诈问题的类别不平衡性质和欺诈者的关系伪装。根据成本敏感学习研究 [30],对欺诈者进行错误分类比对良性实体进行错误分类对防御者的成本要高得多。同时,大量良性实体已经为分类器提供了足够的信息。因此,为了加速训练过程,我们通过仅考虑正中心节点(即欺诈者)来计算过滤阈值,并将它们应用于所有节点类。完整的 RL 过程如算法 1 的第 15-19 行所示。4.4 节中的实验结果验证了 RL 的有效性。
在每个关系下过滤邻居后,下一步是聚合来自不同关系的邻居信息。
以前的方法采用注意机制 [23、37、48] 或设计加权参数 [24] 来在聚合来自不同关系的信息时学习关系权重。
然而,假设我们在每个关系下选择了最相似的邻居,那么不同关系之间的注意力系数或权重参数应该相似。
因此,为了在保留关系重要性信息的同时节省计算成本,我们直接应用 RL 过程学习的最佳过滤阈值作为相互关系聚合权重。形式上,在第 l 层的关系 r 下,在应用 top-p 采样之后,对于节点 v,我们定义关系内邻居聚合如下
其中均值聚合器用于所有 。然后,我们定义相互关系聚合如下:
其中 h(l −1) v 是前一层的中心节点嵌入,h(l ) v,r 是第 l 层的关系内邻居嵌入,p(l ) r 是关系 r 的过滤阈值直接用作其相互关系聚合权重。 ⊕表示嵌入求和运算。 AGGl all 可以是任何类型的聚合器,我们在 4.3 节中测试它们。
优化。对于每个节点 v,其最终嵌入是 GNN 在最后一层的输出 。
我们可以将GNN的损失定义为交叉熵损失函数:
连同方程式 (4)中相似性度量的损失函数,我们将CARE-GNN的损失定义为:
其中 ||Θ||2 是所有模型参数的 L2 范数,λ1 和 λ2 是加权参数。由于第一层的邻居过滤过程对 GNN 和后续层的相似性度量都至关重要,因此我们仅使用第一层的相似性度量损失来更新方程式 (3)中的参数化相似性度量。
算法说明。算法 1 显示了所提出的 CARE-GNN 的训练过程。给定多关系欺诈图,我们采用小批量训练技术 [11] 作为其大规模的结果。一开始,我们随机初始化相似性度量模块和 GNN 模块的参数。我们将所有过滤阈值初始化为 0.5(第 2 行)。
对于每一批节点,我们首先使用Eq.(3)(行7)计算邻居相似性,然后使用top-p采样(行8)过滤邻居。然后,我们可以分别计算当前批次的内部关系嵌入(行9),关系间嵌入(行10),损失函数(行11-14)。对于RL过程,由于第一个epoch没有参考,我们为它分配随机动作。从第二个epoch开始,我们根据第15-19行更新。
在实验部分,我们主要介绍:
• 我们如何根据不同的欺诈数据构建多关系图(第 4.1.2 节);
• 真实世界欺诈数据中的伪装证据(第 4.2 节);
• 基线和 CARE-GNN 变体的性能比较(第 4.3 节);
• RL算法的学习过程和解释(第4.4节);
• 超参数的敏感性研究及其对模型设计的影响(第 4.5 节)。
我们使用 Yelp 评论数据集 [29] 和亚马逊评论数据集 [26] 来研究欺诈者伪装和基于 GNN 的欺诈检测问题。
Yelp 数据集包括由 Yelp 过滤(垃圾邮件)和推荐(合法)的酒店和餐厅评论。
亚马逊数据集包括乐器类别下的产品评论。
与 [47] 类似,我们将具有超过 80% 的有用投票的用户标记为良性实体,将小于 20% 的有用投票的用户标记为欺诈实体。
尽管之前的工作提出了其他欺诈数据集,如 Epinions [18] 和比特币 [40],但它们仅包含图结构和压缩特征,我们无法用它们构建有意义的多关系图。
在本文中,我们在 Yelp 数据集(Amazon 数据集 resp.)上执行垃圾评论检测(欺诈用户检测 resp.)任务,这是一个二元分类任务。
我们将来自 [29] 的 32 个手工特征(分别来自 [47] 的 25 个手工特征)作为 Yelp(亚马逊分别)数据集的原始节点特征。表 2 显示了数据集统计信息。
Yelp:基于之前的研究[27、29]表明意见欺诈者在用户、产品、评论文本和时间之间存在联系,我们将评论作为图中的节点并设计了三个关系:1)R-U-R:它连接发布的评论由同一用户;2) R-S-R:将同一产品下的评论与同一星级(1-5星)联系起来;3)R-T-R:它连接了同一个月发布的同一产品下的两条评论。
亚马逊:同样,我们将用户作为图中的节点,设计了三个关系:1)U-P-U:它连接了至少评论了一个相同产品的用户; 2) U-S-V:连接一周内至少有一个相同星级的用户; 3) U-V-U : 它连接所有用户中相互评论文本相似度前 5%(由 TF-IDF 测量)的用户。属于每个关系的边数如表2所示。
为了验证 CARE-GNN 在减轻伪装欺诈者带来的负面影响方面的能力,我们将其与半监督学习设置下的各种 GNN 基线进行了比较。
我们选择 GCN [17]、GAT [34]、RGCN [31] 和 GraphSAGE [12] 来表示一般 GNN 模型。我们选择 GeniePath [23]、Player2Vec [48]、SemiGNN [37] 和 GraphConsis [25] 作为四个最先进的基于 GNN 的欺诈检测器。它们的详细介绍可以在第 5 节中找到。我们还实现了 CARE-GNN 的几种变体:CARE-Att、CARE-Weight 和 CARE-Mean,它们在注意力 [34]、权重 [24]、和 Mean [12] 相互关系聚合器。
在这些基线中,GCN、GAT、GraphSAGE 和 GeniePath 在同构图(即表 2 中的 Relation ALL)上运行,其中所有关系都合并在一起。其他模型在多关系图上运行,它们在其中处理来自其方法中不同关系的信息。
从表 2 中,我们可以看到欺诈者在两个数据集中的百分比都很小。同时,现实世界的图表通常具有很大的比例。为了提高训练效率并避免过度拟合,我们采用小批量训练 [11] 和欠采样 [22] 技术来训练 CARE-GNN 和其他基线。具体来说,在每个小批量下,我们随机抽取与正例数相同数量的负例。我们还在第 4.5 节中研究了样本比率敏感性。
对于所有模型,我们使用统一的节点嵌入大小(64) ,批量大小(Yelp 为1024,Amazon 为256) ,层数(1) ,学习率(0.01) ,优化器(Adam)和 L2正则化权重(λ2 = 0.001)。
我们为所有型号。对于 CARE-GNN 及其变体,我们将 RL 动作步长 (τ) 设置为 0.02,将相似性损失权重 (λ1) 设置为 2。在第 4.5 节中,我们介绍了层数、嵌入大小和λ1。
对于 GCN、GAT、RGCN、GraphSAGE、GeniePath,我们使用作者提供的源代码。对于 Player2Vec、SemiGNN 和 GraphConsis,我们使用开源实现 。我们使用 Pytorch 实现 CARE-GNN。所有模型都在 Python 3.7.3、2 个 NVIDIA GTX 1080 Ti GPU、64GB RAM、3.50GHz Intel Core i5 Linux 桌面上运行。
由于 Yelp 数据集的类别不平衡,我们更关注欺诈者(正实例),就像之前的工作 [29] 一样,我们利用 ROC-AUC (AUC) 和召回率来评估所有分类器的整体性能。 AUC是根据所有实例的预测概率的相对排名计算的,可以消除不平衡类别的影响。
我们使用 [25] 中介绍的两个指标来分析欺诈者的伪装。
对于特征伪装,我们根据特征向量的欧几里德距离计算相邻节点的特征相似度,范围从 0 到 1。平均特征相似度被归一化 w.r.t.边的总数,如表 2 所示。
我们观察到所有关系下的平均相似性得分都很高。高特征相似性意味着欺诈者以类似于良性节点的方式伪装他们的特征。
此外,不同关系之间的微小特征相似性差异证明无监督相似性度量不能有效地区分欺诈者和良性实体。例如,R-U-R 和 R-T-R 之间的标签相似度差异为 0.85,但特征相似度差异仅为 0.04。
对于关系伪装,我们通过基于两个连接节点是否具有相同标签来计算标签相似度来研究它。标签相似度是标准化的 w.r.t.(关于)边的总数。每个关系的平均标签相似度如表 2 所示。标签相似度得分高表明欺诈者伪装失败,得分低表明欺诈者伪装成功。我们观察到只有 R-U-R 关系具有较高的标签相似度得分,而其他关系的标签相似度得分低于 20%。这表明我们需要为不同的关系选择不同数量的邻居,以促进 GNN 聚合过程。同时,我们应该区分关系,以防止欺诈者伪装.
表 3 显示了在两个数据集上的欺诈检测任务下,所提出的 CARE-GNN 和各种 GNN 基线的性能。我们在三十个时期后报告最佳测试结果。我们观察到 CARE-GNN 在大多数训练比例和指标下都优于其他基线。
单关系与多关系。在表3中的所有GNN基线中,GCN、GAT、GraphSAGE和GeniePath运行在单关系(即同构)图上,其中所有关系被合并在一起(表2中的all)。其他基线建立在多关系图之上。单关系 GNN 的性能优于 Player2Vec 和 SemiGNN,这表明以前设计的欺诈检测方法不适用于多关系图。
在多关系 GNN 中,GraphConsis 优于所有其他多关系 GNN。原因是 GraphConsis 在聚合它们之前根据节点特征对邻居进行采样。
与 GraphConsis 相比,CARE-GNN 及其变体采用参数化相似性度量和自适应采样阈值,可以更好地识别和过滤伪装的欺诈者。
它表明当图形包含许多噪声(即不同/伪装的邻居)时,邻居过滤对 GNN 至关重要。
此外,CARE-GNN 的得分高于所有单关系 GNN,这表明噪声图会破坏多关系 GNN 的性能。一个可能的原因是与单关系 GNN 相比,多关系 GNN 的复杂性更高。
训练百分比。从表 3 中可以看出,当增加训练百分比时,GNN 几乎没有性能提升。它展示了半监督学习的优势,其中少量的监督信号足以训练出一个好的模型。同时,将信息丰富的手工特征作为两个数据集的输入,GNN 更容易学习高质量的嵌入。
CARE-GNN 变体。表 3 的最后四列显示了 CARE-GNN 及其具有不同相互关系聚合器的变体的性能。据观察,这四个模型在大多数训练百分比和指标下具有相似的性能。它验证了我们在第 3.4 节中的假设,即当我们在所有关系下选择相似的邻居时,注意力系数和关系权重将变得不必要。此外,对于 Yelp 数据集,CARE-Att 在较小的训练百分比(例如 5%)下表现较差。而对于 CARE-GNN,由于它不需要训练额外的注意力权重,因此它相对于其他变体获得了最佳性能。图 3 的第一列提供了更多证据,表明两个数据集下所有关系的关系权重最终变得相等。
与CARE-Mean相比,CARE-GNN具有更好的性能,表明将滤波阈值作为相互关联的聚合权值可以提高GNN的性能,降低模型复杂度。
GNN 与相似性度量(图 3 第 4 列)。图 3 第 4 列显示了在训练期间仅基于 GNN 模块和相似性度量模块的输出的测试性能。对于 Yelp 数据集,GNN 比相似性度量具有更好的 AUC 和召回率,这表明利用结构信息有利于模型对欺诈和良性实体进行分类。对于亚马逊来说,GNN 的性能和相似性度量是可以相互比较的。这是因为输入特征提供了足够的信息来区分欺诈者。