知识图谱-生物信息学-医学顶刊论文(Bioinformatics-2022)-SGCL-DTI:用于DTI预测的监督图协同对比学习

14.(2022.5.21)Bioinformatics-SGCL-DTI:用于DTI预测的监督图协同对比学习

论文标题: Supervised graph co-contrastive learning for drug–target interaction prediction
论文地址: https://academic.oup.com/bioinformatics/article-abstract/38/10/2847/6551245
论文期刊: Bioinformatics 2022

  • 14.(2022.5.21)Bioinformatics-SGCL-DTI:用于DTI预测的监督图协同对比学习
    • 摘要
    • 1.引言
    • 2.模型方法
      • 2.1 异构信息网络构建
      • 2.2 基于元路径的图编码
        • 2.2.1 元路径选择
        • 2.2.2 元路径引导的GCN
      • 2.3 DPP网络表示学习
        • 2.3.1 构建拓扑图
        • 2.3.2 构建语义图
        • 2.3.3 DPP网络学习
      • 2.4 有监督的联合对比优化

摘要

动机
药物-靶标相互作用(DTI) 的识别是药物发现和重定位的重要步骤。基于生物实验的DTI预测既耗时又昂贵。近年来,基于图学习的方法引起了广泛的兴趣,并在该任务中显示出一定的优势,其中DTI预测通常被建模为由药物和蛋白质对(DPP) 组成的节点二分类问题。
然而,在许多实际应用中,标记数据非常有限且获取成本很高。由于只有几千个标记数据,模型很难理解DPP节点的表示,并且无法捕获足够的DTI预测必需的常识知识。
监督对比学习给出了具有相同类别标签的DPP节点表示的对齐表示。在嵌入空间中,具有相同标签的DPP节点表示被聚合在一起,而具有不同标签的DPP节点表示被分开。

结果
我们提出了一种端到端的监督图协同对比学习模型,用于直接从异构网络进行DTI预测。SGCL-DTI通过对比DPP网络的拓扑结构和语义特征,以及新的正负样本选择策略,来生成对比损失,以监督的方式引导模型优化。对三个公共数据集的综合实验表明,我们的模型在DTI预测任务上明显优于SOTA方法,尤其是在冷启动的情况下。此外,SGCL-DTI为DTI预测提供了对比学习的新研究视角。

冷启动:即数据不足。

1.引言

药物靶标是可以被药物靶向并在细胞中产生作用的蛋白质。识别药物和蛋白质靶标之间的相互作用不仅是药物发现的关键步骤,而且还为药物重定位、多药药理学、耐药性和副作用预测提供引导。然而,通过生物实验来确定DTI是一种耗时且昂贵的方法。

为了加快药物发现,研究人员一直在探索识别DTI的计算方法。现有的DTI预测方法可以分为三类:基于配体的方法、基于对接的方法和基于机器学习的方法。除了广泛使用的传统算法外,一个显著的趋势是从网络的角度来处理DTI。
图表示学习模型,如图卷积网络(GCN)和图注意网络(GAT),用于从各种类型的同构或异构网络信息中学习DTI预测。现有的大多数方法主要分为两个独立的步骤:第一步提取药物和蛋白质的表示向量,第二步应用深度神经网络根据表示来预测最终的标签。就我们所知,只有很少的端到端模型可以直接预测来自许多异构网络的药物和蛋白质之间的相互作用。

除了早期的计算性DTI预测方法(如基于配基的方法和基于对接的方法),机器学习方法也引起了极大的关注,因为它们能够在相对较短的时间内对候选对象进行大规模测试。这些方法背后的一个关键思想是基于“关系犯罪”的假设,这意味着类似的药物可能有类似的目标,反之亦然。基于这一假设,随机森林(RF)、决策树(DT)和支持向量机(SVM)等机器学习模型被广泛用作分类器来预测是否存在DTI。

另一方面,已经提出了一些先进的机器学习方法来整合外部信息来进行DTI预测。有人开发了一个二分图模型,其中化学空间和基因组空间以及药物-蛋白质相互作用网络都被整合到一个药理学空间中。有人提出了一种半监督学习方法-即拉普拉斯正则化最小二乘(LapRLS),该方法将少量可用标记数据和丰富的未标记数据结合在一起,以便从化学和基因组空间获得最大的泛化能力。与此同时,药物或显性信息,如副作用、转录反应数据、“药物-疾病”关系、公共基因表达数据和功能数据已被纳入DTI,以便提供多样化的信息和多视角的视角来预测新的DTI。有人提出了一个网络集成管道DTINet,以集成不同的数据源(例如,药物、蛋白质、疾病和副作用)。上述方法大多依赖于传统的机器学习,忽略了药物和蛋白质的拓扑信息,无法学习它们之间的深层交互。

近年来,随着深度学习在生物信息学各个领域的巨大成功,能够学习丰富的拓扑信息和异构数据之间复杂相互作用的网络表示的方法被用于DTI预测。
有人提出了一种基于学习的DTI-CNN方法用于DTI预测,该方法从异构网络中学习特征的低维向量表示。DTI-CNN以药物和蛋白质的连接表示向量为输入,采用CNN作为分类模型。然而,DTI-CNN在建模和学习过程中忽略了药物和蛋白质对(DPP)之间的相互作用。
为了将DPP之间的关系纳入DTI建模,有人建立了一个基于多种药物和蛋白质的DPP图网络,其中DPP是节点,DPP之间的关系是网络的边。然后,他们提出了一种用于DTI识别的模型GCN-DTI。该模型首先使用GCN学习每个DPP的表示,并基于该表示使用深度神经网络预测最终标签。该方法虽然注意到DPP邻居之间可能存在相互影响,但忽略了DPP网络的语义特征。同时,图中的噪声是否能够被去除,或者模型是否能从有限的标记数据中学习到更有效的表示,仍然是一个悬而未决的问题。

然而,在许多实际应用中,如DTI预测,标记的数据是有限的,并且获取成本很高。近年来,自监督对比学习在许多图形表示学习任务中引起了相当大的关注。目前的工作主要集中在设计不同的图增强策略来生成同一节点的两个表示,并利用对比学习损失来最大限度地提高它们之间的一致性,同时最大限度地减少“其他负样本”之间的相似性。GraphCL通过最大化同一节点的局部子图的两个被随机干扰的表示之间的一致性/相似性来学习节点嵌入。有人设计了四种类型的图形数据论证(节点丢弃、边干扰、属性掩蔽和子图),并研究了不同组合的数据表示在不同任务中的影响。有人结合了多种先验知识,增强了对不重要节点和边的干扰,并保留了图的内部结构和属性信息。在生物信息学领域,图对比学习被应用于DDI预测,将原始图表示与处理后的图表示进行比较。同时,有人使用两个编码器对scRNA-seq中的序列进行随机掩码,并对增强后的数据进行对比学习。然而,在充分利用有价值的标签信息来监督对比损失中有效的正负对的构建方面所做的努力却很少。

也许,最相关的模型是使用异构信息网络的两个视图(网络模式和元路径视图)来学习节点嵌入。然后,提出了跨视图对比学习方法,从两个视图中提取正类和负类嵌入信息。关键的区别在于,我们试图利用有价值的监督信息,寻找每个类别的样本之间的共性,并将它们与其他类别的样本进行比较。通过对比DPP网络的拓扑结构和语义特征,两个视图相互监督,以有监督的方式引导模型优化。

如图1所示,基于同一类中一阶邻居节点之间相似度较高的直觉,我们提出了一种端到端有监督的图协同对比学习DTI预测模型,即SGCL-DTI
具体地说,SGCL-DTI首先通过元路径引导图编码器从异构网络中学习药物和蛋白质的低维表示。然后,分别构建了药物-蛋白质对(DPP)节点的拓扑图和语义图。
与以往对比原始网络和被破坏网络的对比学习不同,我们通过两个DPP网络(拓扑图和语义图)的联合对比学习来优化最终的预测目标函数,通过最大化同一类别中一阶邻居之间的相似度并将它们与其他类别中的节点进行对比
我们在三个公共数据集上进行了全面的实验,结果表明,该模型的性能明显优于SOTA方法。

本文的主要贡献可以概括为:

  • 提出了一种用于DTI预测任务的有监督图协同对比学习模型。通过在包含监督信息的同时对多个视图进行对比学习,SGCL-DTI在所有数据集上的性能明显优于SOTA方法。据我们所知,这是第一次尝试以有监督的方式对比同一图的拓扑结构和语义特征
  • 我们设计并进行了全面的实验,以证明模型中不同组件的有效性,并分析了不同的正负样本选择策略在该任务的对比学习中的作用。
  • SGCL-DTI是一个通用的端到端图表示学习框架,可以很容易地扩展到其他应用。

知识图谱-生物信息学-医学顶刊论文(Bioinformatics-2022)-SGCL-DTI:用于DTI预测的监督图协同对比学习_第1张图片

图1. 监督图协同对比学习示例。不同形状的节点表示它们具有不同的类标签(A类和B类)。A类代表该DPP中药物与靶标之间经过验证存在相互作用(即存在DTI),而B类代表该DPP中药物与靶标之间没有相互作用(即不存在DTI)。加粗边框的圆圈中的节点是语义图中的目标节点。选择语义图中的这个节点和拓扑图中同一类的一阶邻居作为其正样本,并用虚线连接。

2.模型方法

在这一部分中,我们介绍了我们的DTI预测模型,并解释了我们模型背后的动机和关键思想。我们建议的模型SGCL-DTI的体系结构如图2所示。它由四个部分组成:异构信息网络构建、基于元路径的图编码、DPP网络表示学习和有监督的协同对比优化

  1. 首先,为了对不同类型的实体及其复杂关系进行建模,我们利用一个异构信息网络来描述药物、蛋白质以及它们之间对应的异构关系。
  2. 然后,使用**具有注意力机制的基于元路径的图编码器**从异构信息网络中学习药物和蛋白质节点的表示。
  3. 然后,构建和学习药物-蛋白质对(DPP)的拓扑网络和语义网络,其中每个DPP节点是药物和蛋白质表示的连接。这样,我们不仅可以了解DPP节点之间的关系,还可以了解药物和蛋白质之间的相互作用
  4. 最后,使用一种新的对比优化模块来生成两个视图的==协同对比损失==,并以有监督的方式引导模型优化。

知识图谱-生物信息学-医学顶刊论文(Bioinformatics-2022)-SGCL-DTI:用于DTI预测的监督图协同对比学习_第2张图片

**图2:模型整体结构。**其中药物-药物和蛋白质-蛋白质中的实线表示一阶邻居,虚线表示非一阶邻居。

2.1 异构信息网络构建

异构信息网络 G = ( V , E ) \mathcal{G}=(\mathcal{V},\mathcal{E}) G=(V,E)是一个图,其中 V \mathcal{V} V是节点集合, E \mathcal{E} E是边的集合。 G \mathcal{G} G与节点类型映射函数 ϕ : V → N \phi:\mathcal{V} \rightarrow \mathcal{N} ϕ:VN和边类型映射函数 φ : E → R \varphi:\mathcal{E} \rightarrow \mathcal{R} φ:ER相关联。 N \mathcal{N} N R \mathcal{R} R分别表示对象和链接类型的集合,其中 ∣ N + R ∣ > 2 |\mathcal{N}+\mathcal{R}|>2 N+R>2

异构图:在一个图上节点与边的种类都不止一种,二者类别数之和大于2即可被称为异构图;反之则为最传统、最简单的同构图。

我们从公共数据库收集了多种信息,构建了用于DTI预测任务的异构网络,其中有四个药物相关网络(药物-药物关系网络、药物相关疾病网络、药物-副作用网络以及药物-化学结构相似性网络),三个蛋白质相关网络(蛋白质相关疾病网络、蛋白质-蛋白质关系网络和蛋白质序列相似性网络)和一个药物-蛋白质相互作用网络用作我们的基本事实。在本研究中,我们将药物和蛋白质数据建模为 H I N   G \mathrm{HIN} \space \mathcal{G} HIN G。具体而言,构建的 H I N   G \mathrm{HIN} \space \mathcal{G} HIN G包括四类实体(即药物、蛋白质、疾病和副作用)以及它们之间的一系列关系。

2.2 基于元路径的图编码

传统的GCN只能捕捉同构网络中的同构关系,忽略了网络中丰富的信息。为了解决这个问题,元路径被用来捕获异构图中的异构上下文信息。我们利用图形编码器根据预先定义的元路径来学习药物和蛋白质的表示。考虑到不同的元路径可能会对药物或蛋白质的最终表示学习产生不同的影响,我们利用注意力机制对在不同元路径引导下学习的药物或蛋白质的表示进行融合,生成联合注意力表示

2.2.1 元路径选择

G \mathcal{G} G中的元路径被定义为网络模式 S = ( N , R ) \mathcal{S}=(\mathcal{N},\mathcal{R}) S=(N,R),并且被表示成形式为 N 1 ⟶ R 1 N 2 ⟶ R 2 ⋯ ⟶ R l N l + 1 N_1 \stackrel{R_1}{\longrightarrow} N_2 \stackrel{R_2}{\longrightarrow} \cdots \stackrel{R_l}{\longrightarrow} N_{l+1} N1R1N2R2RlNl+1的路径,它描述了节点类型 N 1 N_1 N1 N l + 1 N_{l+1} Nl+1之间的复合关系 R = R 1 ∘ R 2 ∘ ⋯ R l R=R_1 \circ R_2 \circ \cdots R_l R=R1R2Rl," ∘ \circ "表示关系间的复合运算符。

两种药物之间的典型元路径可以被定义如下:drug ⟶ t r e a t \stackrel{\mathrm{treat}}{\longrightarrow} treatdisease ⟶ t r e a t − 1 \stackrel{\mathrm{treat^{-1}}}{\longrightarrow} treat1drug,这意味着能治疗相同疾病的两种不同的药物也是有关联的;drug ⟶ c a u s e \stackrel{\mathrm{cause}}{\longrightarrow} causeside-effect ⟶ c a u s e − 1 \stackrel{\mathrm{cause^{-1}}}{\longrightarrow} cause1drug,这意味着两种药物在含有引起相同副作用的化学成分方面是相关的。另一方面,两种蛋白质之间的元路径可以定义为protein ⟶ e x p r e s s \stackrel{\mathrm{express}}{\longrightarrow} expressdisease ⟶ e x p r e s s − 1 \stackrel{\mathrm{express^{-1}}}{\longrightarrow} express1protein,说明两种蛋白质在同一种疾病上的异常表达是相关的。总的来说,我们从** G \mathcal{G} G中诱导了五条药物元路径和四条蛋白质元路径,如图2所示**。

2.2.2 元路径引导的GCN

选择合适的元路径后,我们通过GCN学习基于不同元路径的药物和蛋白质的表示。给定 H I N   G = ( V , E ) \mathrm{HIN} \space \mathcal{G}=(\mathcal{V},\mathcal{E}) HIN G=(V,E),其中有一组元路径 P = { P 1 , P 2 , ⋯   , P M } \mathcal{P}=\{\mathbf{P}_1,\mathbf{P}_2,\cdots,\mathbf{P}_M\} P={P1,P2,,PM}和对应的邻接矩阵 A = { A 1 , A 2 , ⋯   , A M } \mathcal{A}=\{\mathbf{A}_1,\mathbf{A}_2,\cdots,\mathbf{A}_M\} A={A1,A2,,AM}( M M M表示元路径数量)。(对于给定的某一个药物节点,不同的元路径引导,会生成不同的邻接矩阵,比如”药物-蛋白质-药物“和”药物-疾病-药物“两种路径模式在异构图中选出的邻接矩阵肯定是不同的,当然也就会生成不同的药物表示。)

首先,我们使用多层GCN根据药物的每个元路径生成药物表示,如下所示:
z p i ( l ) = ReLU ⁡ ( D p i − 1 2 A ~ p i D p i − 1 2 z p i ( l − 1 ) W p i ( l ) ) (1) \mathbf{z}_{p_i}^{(l)}=\operatorname{ReLU}\left(\mathbf{D}_{p_i}^{-\frac{1}{2}} \tilde{\mathbf{A}}_{p_i} \mathbf{D}_{p_i}^{-\frac{1}{2}} \mathbf{z}_{p_i}^{(l-1)} \mathbf{W}_{p_i}^{(l)}\right)\tag{1} zpi(l)=ReLU(Dpi21A~piDpi21zpi(l1)Wpi(l))(1)
其中 R e L U ( x ) = m a x ( 0 , x ) \mathrm{ReLU(x)=max(0,x)} ReLU(x)=max(0,x)是一个用于校正的线性激活函数。 z p i ( l ) \mathbf{z}^{(l)}_{p_i} zpi(l)表示药物的第 l l l层表示,其中下标 i i i表示药物的第 i i i个元路径。特别地, z ( 0 ) \mathbf{z}^{(0)} z(0)是从标准正态分布初始化的输入向量。我们将单位矩阵 I p i \mathbf{I}_{p_i} Ipi添加到邻接矩阵 A p i \mathbf{A}_{p_i} Api中,以指示节点本身,其中 A ~ p i = A p i + I p i \tilde{\mathbf{A}}_{p_i}=\mathbf{A}_{p_i}+\mathbf{I}_{p_i} A~pi=Api+Ipi D p i \mathbf{D}_{p_i} Dpi A ~ p i \tilde{\mathbf{A}}_{p_i} A~pi的对角矩阵; W p i ( l ) ∈ R d i n × d o u t \mathbf{W}_{p_i}^{(l)} \in \mathbb{R}^{d_{in}×d_{out}} Wpi(l)Rdin×dout是第 l l l层药物和蛋白质的共享可训练权重矩阵。 d i n d_{in} din d o u t d_{out} dout分别表示GCN各层的输入维度和输出维度。

为了了解不同的元路径对药物最终表示的不同影响,我们给出了药物在各个元路径引导下的相应表示 e p i ∈ { e p 1 , e p 2 , ⋯   , e p M d } \mathbf{e}_{p_i} \in \{ \mathbf{e}_{p_1},\mathbf{e}_{p_2}, \cdots,\mathbf{e}_{p_{M_d}} \} epi{ep1,ep2,,epMd};我们可以学习注意力权重并获得药物在不同的元路径引导下的融合的的最终表示 h d r u g \mathbf{h}_{\mathrm{drug}} hdrug,如下所示:
α p i = s o f t m a x ( q ⋅ tanh ⁡ ( W ⋅ e p i + b ) ) (2) \alpha_{p_i}=softmax(\mathbf{q} \cdot \tanh \left(\mathbf{W} \cdot \mathbf{e}_{p_i}+\mathbf{b}\right))\tag{2} αpi=softmax(qtanh(Wepi+b))(2)
h d r u g = ∑ i = 1 M d ( α p i e p i ) (3) \mathbf{h}_{\mathrm{drug}}=\sum_{i=1}^{M_d} (\alpha_{p_i} \mathbf{e}_{p_i})\tag{3} hdrug=i=1Md(αpiepi)(3)

式2计算注意力权重,式3是加上注意力权重后的药物表示。

其中 p p p指该药物的序号; i i i指元路径的序号; e p i \mathbf{e}_{p_i} epi指药物 p p p在第 i i i条元路径引导下的多层药物表示 W ∈ R d l × d p \mathbf{W} \in \mathbb{R}^{d_l×d_p} WRdl×dp是一个权值矩阵, d l d_l dl是注意力层的维度; d p d_p dp e p i \mathbf{e}_{p_i} epi的维度; b ∈ R d l × 1 \mathbf{b} \in \mathbb{R}^{d_l×1} bRdl×1是一个偏差矩阵; q ∈ R d l × 1 \mathbf{q} \in \mathbb{R}^{d_l×1} qRdl×1是一个共享注意力矩阵。类似地,我们可以根据蛋白质的每一个元路径获得蛋白质表示 h p r o t e i n \mathbf{h}_{\mathrm{protein}} hprotein

2.3 DPP网络表示学习

为了捕捉药物和蛋白质之间深层的和全面的关系,我们将每个药物 p p p和蛋白质 q q q连接成DPP i i iDPP结点 i i i可以表示成 h D P P i = { h d r u g p ; q p r o t e i n q } \mathbf{h}^i_{\mathrm{DPP}}=\{\mathbf{h}^p_{\mathrm{drug}} ; \mathbf{q}^q_{\mathrm{protein}}\} hDPPi={hdrugp;qproteinq}。我们试图为DPP构建多通道网络,拓扑图对DPP的结构信息进行建模,语义图学习DPP的语义信息。

2.3.1 构建拓扑图

首先,我们构建拓扑图: G t = ( A t , X D P P ) \mathbf{G}_t=(\mathbf{A}_t,\mathbf{X}_{\mathrm{DPP}}) Gt=(At,XDPP),其中 X D P P ∈ R N D P P × d D P P \mathbf{X}_{\mathrm{DPP}} \in \mathbb{R}^{N_{\mathrm{DPP}}×d_{\mathrm{DPP}}} XDPPRNDPP×dDPP是所有DPP节点的表示矩阵, N D P P N_{\mathrm{DPP}} NDPP表示DPP的总数, d D P P d_{\mathrm{DPP}} dDPP是DPP表示向量的维度。我们遵循的原则是,如果两个DPP含有共同的药物或蛋白质,则它们之间存在边。邻接矩阵 A t ∈ R N D P P × N D P P \mathbf{A}_t \in \mathbb{R}^{N_{\mathrm{DPP}}×N_{\mathrm{DPP}}} AtRNDPP×NDPP表示图中节点之间的边的关系。如果两个DPP有一些共同的特征(药物或蛋白质),那么对应的 A t \mathbf{A}_t At的第 i i i行和第 j j j列的元素的值等于1,反之则为0。

2.3.2 构建语义图

我们基于学习到的表示的语义相似度来构建DPP的语义图。对于每个DPP i i i,我们计算 i i i与其他DPP之间的表示的余弦相似度,然后选择最接近的K个DPP节点作为其相邻节点。例如,如果DPP j j j和DPP k k k是DPP i i i的相邻节点,则我们可以在邻接矩阵 A s \mathbf{A}_s As中将第 i i i行第 j j j列中的元素和第 i i i行第 k k k列中的元素定义为1,否则定义为0。因此,我们可以构造一个DPP的语义图 G s = ( A s , X D P P ) \mathbf{G}_s=(\mathbf{A}_s,\mathbf{X}_{DPP}) Gs=(As,XDPP),其中 A s \mathbf{A}_s As是邻接矩阵, X D P P ∈ R N D P P × d D P P \mathbf{X}_{\mathrm{DPP}} \in \mathbb{R}^{N_{\mathrm{DPP}}×d_{\mathrm{DPP}}} XDPPRNDPP×dDPP是所有DPP节点的表示矩阵。

2.3.3 DPP网络学习

我们使用两个多层GCN来学习两个DPP网络的表示。设 z t \mathbf{z}_t zt z s \mathbf{z}_s zs分别表示从拓扑图和语义图学习到的DPP节点表示(即 X D P P \mathbf{X}_{DPP} XDPP),在第 l l l层GCN模型的输出如下:
z t ( l ) = ReLU ⁡ ( D ~ t − 1 2 A ~ t D ~ t − 1 2 z t ( l − 1 ) W t ( l ) ) (4) \mathbf{z}_t^{(l)}=\operatorname{ReLU}\left(\tilde{\mathbf{D}}_t^{-\frac{1}{2}} \tilde{\mathbf{A}}_t \tilde{\mathbf{D}}_t^{-\frac{1}{2}} \mathbf{z}_t^{(l-1)} \mathbf{W}_t^{(l)}\right) \tag{4} zt(l)=ReLU(D~t21A~tD~t21zt(l1)Wt(l))(4)
z s ( l ) = ReLU ⁡ ( D ~ s − 1 2 A ~ s D ~ s − 1 2 z s ( l − 1 ) W s ( l ) ) (5) \mathbf{z}_s^{(l)}=\operatorname{ReLU}\left(\tilde{\mathbf{D}}_s^{-\frac{1}{2}} \tilde{\mathbf{A}}_s \tilde{\mathbf{D}}_s^{-\frac{1}{2}} \mathbf{z}_s^{(l-1)} \mathbf{W}_s^{(l)}\right) \tag{5} zs(l)=ReLU(D~s21A~sD~s21zs(l1)Ws(l))(5)
其中 A ~ ( ⋅ ) = A ( ⋅ ) + I ( ⋅ ) \tilde{\mathbf{A}}_{(\cdot)}=\mathbf{A}_{(\cdot)}+\mathbf{I}_{(\cdot)} A~()=A()+I() I ( ⋅ ) \mathbf{I}_{(\cdot)} I()是单位矩阵; D ~ ( ⋅ ) \tilde{\mathbf{D}}_{(\cdot)} D~() A ~ ( ⋅ ) \tilde{\mathbf{A}}_{(\cdot)} A~()的对角矩阵; W ( ⋅ ) ( l ) \mathbf{W}^{(l)}_{(\cdot)} W()(l)是GCN第 l l l层的权值矩阵。

2.4 有监督的联合对比优化

在本文中,我们提出了一种有监督的对比学习目标,通过聚合属于同一类的样本来最小化类内方差,通过分离来自不同类的样本来最大化类间方差。SGCL-DTI中的有监督对比学习(SCL)策略类似于自监督图形对比学习中的对比目标。不同的是,对比目标被用来引导最终预测任务的学习,而不是对比样本中不同的视图。

因此,SGCL-DTI的目标包括用于DTI预测的有监督分类项和对比学习项。在计算对比损失时,需要确定正样本和负样本。与以往的工作不同,本文提出了一种新的基于拓扑网络和语义网络的正样本选择策略。具体地说,给定拓扑网络中的一个DPP节点 i i i,我们不仅将其在语义网络中对应的节点 j j j作为正样本,还把节点 j j j的有着相同类别的一阶邻居节点作为正样本。我们认为具有相同类别标签的一阶邻居节点是高度相关的。因此,我们可以实现两个图之间的协同对比学习。

拓扑图 L S C L t \mathcal{L}_{SCL}^t LSCLt的有监督协同对比学习损失可以定义如下:
L S C L t = − ∑ i = 1 N DPP  log ⁡ ∑ j ∈ P i exp ⁡ ( sim ⁡ ( z t i , z s j ) / τ ) ∑ k ∈ { P i ∪ N i } exp ⁡ ( sim ⁡ ( z t i , z s k ) / τ ) (6) \mathcal{L}_{S C L}^t=-\sum_{i=1}^{N_{\text {DPP }}} \log \frac{\sum_{j \in \mathbb{P}_i} \exp \left(\operatorname{sim}\left(\mathbf{z}_t^i, \mathbf{z}_s^j\right) / \tau\right)}{\sum_{k \in\left\{\mathbb{P}_i \cup \mathbb{N}_{\mathrm{i}}\right\}} \exp \left(\operatorname{sim}\left(\mathbf{z}_t^i, \mathbf{z}_s^k\right) / \tau\right)}\tag{6} LSCLt=i=1NDPP logk{PiNi}exp(sim(zti,zsk)/τ)jPiexp(sim(zti,zsj)/τ)(6)
其中, P i \mathbb{P}_i Pi是拓扑网络中的节点 i i i在语义网络中的正样本集合,即由语义网络中的节点 j j j及其具有相同类别标签的一阶相邻节点组成。 N i \mathbb{N}_i Ni是节点 i i i的负样本集合,表示不在 P i \mathbb{P}_i Pi中的所有其他DPP节点。 τ \tau τ是一个可调的标量温度参数。类似地,我们可以得到语义图 L S C L s \mathcal{L}_{SCL}^s LSCLs的有监督协同对比学习损失。

我们将DTI预测任务建模为一个二分类问题,即预测DPP对 x i x_i xi之间是否存在相互作用。分类损失函数可定义为:
L C E = − ∑ i = 1 N D P P [ y i log ⁡ π ( x i ) + ( 1 − y i ) log ⁡ ( 1 − π ( x i ) ) ] (7) \mathcal{L}_{C E}=-\sum_{i=1}^{N_{\mathrm{DPP}}}\left[y_i \log \pi\left(x_i\right)+\left(1-y_i\right) \log \left(1-\pi\left(x_i\right)\right)\right]\tag{7} LCE=i=1NDPP[yilogπ(xi)+(1yi)log(1π(xi))](7)
其中, π ( x ) = P ( Y = 1 ∣ x ) \pi(x)=P(Y=1 \mid x) π(x)=P(Y=1x) y ∈ 0 , 1 y \in 0,1 y0,1

最后,模型的优化目标由分类损失、对比损失和L2正则化项 R ( Θ ) R(\Theta) R(Θ)三部分组成:
L = L C E + λ L S C L t + ( 1 − λ ) L S C L s + γ R ( Θ ) (8) \mathcal{L}=\mathcal{L}_{C E}+\lambda \mathcal{L}_{S C L}^t+(1-\lambda) \mathcal{L}_{S C L}^s+\gamma R(\Theta)\tag{8} L=LCE+λLSCLt+(1λ)LSCLs+γR(Θ)(8)
其中 R ( Θ ) = ∑ ( Θ ) 2 R(\Theta)=\sum(\Theta)^2 R(Θ)=(Θ)2 (即权值的平方和), Θ \Theta Θ表示所有可训练的模型参数。

你可能感兴趣的:(NLP,知识图谱,人工智能,生物信息学,自然语言处理)