AlphaFold2源码解析(8)--模型之三维坐标构建

AlphaFold2源码解析(8)–模型之三维坐标构建

AlphaFold2源码解析(8)--模型之三维坐标构建_第1张图片
该模块牵扯到了欧几里得变换,相关的基础知识请查阅欧几里得变换–转载至生信小兔

这个模块我们讲解AlphaFold的Structure module模块,该结构模块将蛋白质结构的抽象表示映射为具体的三维原子坐标。 Evoformer的单一表征被用作初始单一表征 s i i n i t i a l {s^{initial}_i } siinitial s i i n i t i a l ∈ R s c s^{initial}_i \in R^c_s siinitialRsc,而Evoformer的对表征 z i j {z_{ij}} zij z i j ∈ R c z z_{ij} \in R^{c_z} zijRcz 并且 i , j ∈ { 1 , . . . , N r e s } i,j \in \{1,...,N_{res}\} ij{1...Nres}在注意操作中偏重亲和图。该模块有8个具有共享权重的层。 每一层都会更新抽象的单一表征 s i {s_i} si以及具体的三维表征(“残留物气体”),它被编码为每个残留物 T i {T_i} Ti的一个骨架。 我们通过一个元组 T i : = ( R i , t ⃗ i ) T_i:= (R_i,\vec{t}_i) Ti:=(Ri,t i)来表示frame。该元组表示从本地frame到全局参考frame的欧几里得变换。也就是说,它将本地坐标中的位置 x ⃗ l o c a l ∈ R 3 \vec{x}_{local} \in R^3 x localR3转换为全球坐标中的位置 x ⃗ g l o b a l ∈ R 3 \vec{x}_{global} \in R^3 x globalR3,即
AlphaFold2源码解析(8)--模型之三维坐标构建_第2张图片
在具有旋转矩阵和平移矢量的参数化中,这就是:

为了获得所有的原子坐标,我们通过扭转角对每个残基进行参数化。也就是说,扭角是唯一的自由度,而所有的键角和键长都是完全刚性的。 各个原子用它们的名字来识别 S a t o m n a m e s = { N , C α , C , O , C β , C γ , C γ 1 , C γ 2 , . . . . } S_{atom names}= \{N, C^α, C, O, C^β, C^γ, C^{γ1}, C^{γ2}, . ... \} Satomnames={N,Cα,C,O,Cβ,Cγ,Cγ1,Cγ2,....}。 扭转被命名为 S t o r s i o n n a m e s = { ω , φ , ψ , χ 1 , χ 2 , χ 3 , χ 4 } S_{torsion names} = \{ω, φ, ψ, χ^1, χ^2, χ^3, χ^4\} Storsionnames={ω,φ,ψ,χ1,χ2,χ3,χ4}。我们根据原子对扭力角的依赖性将其分为 “刚性组”。

一个浅层ResNet预测了扭转角 α i f ⃗ ∈ R 2 \vec{\alpha^f_i}\in R^2 αif R2。每当它们被用作角度时,它们会通过归一化被映射到单位圆上的点。 此外,我们引入了一个小的辅助损失,鼓励原始向量的单位准则,以避免退化值。与[0, 2π]角度表示法相比,这种表示法没有不连续性,可以直接用于构建旋转矩阵,而不需要三角函数。预测的扭转角被转换为刚性原子组的frame。

在训练过程中,每层的最后一步是计算当前三维结构的辅助损失。中间的FAPE损失只对骨干框架和 C α C^α Cα原子位置进行操作,以保持低计算成本。出于同样的原因,侧链在这里只由它们的扭角来监督。一些刚性组的180◦旋转对称性也通过提供替代角度 α ⃗ i a l t t r u t h , f \vec{\alpha}_i^{alt truth,f} α ialttruth,f来解决。

我们发现将刚体的方向分量的梯度归零是很有帮助的,所以任何迭代都是为了在当前迭代中找到结构的最佳方向,但并不关心是否有一个更适合下一次迭代的方向。 从经验上看,这提高了训练的稳定性,大概是通过消除连锁组成框架中产生的杠杆效应。在8层之后,最终的骨干框架和扭角被映射到所有刚性基团(骨干和侧链) T i f T^f_i Tif和所有原子坐标 x ⃗ i a \vec{x}^a_i x ia的框架上。

在训练过程中,预测的框架和原子坐标通过FAPE损失与地面真相进行比较,该损失评估了所有原子坐标(骨架和侧链)相对于所有刚性基团的情况。 少数刚性基团的180◦旋转对称性是通过对地面真实结构中的模糊原子进行全局一致的重命名来处理的。

最后,该模型以每个残基的预测 l D D T − C α lDDT-Cα lDDTCα得分(pLDDT)的形式预测其置信度。这个分数是根据预测结构和真实结构计算出来的每个残基的真实lDDT-Cα分数来训练的。

下图是AlphaFold论文中“Highly accurate protein structure prediction with AlphaFold”关于结构模块流程,
AlphaFold2源码解析(8)--模型之三维坐标构建_第3张图片
这个模块在补充材料有具体为代码说明:

包含了几个模块:

从真实原子结构构建frame

我们使用来自真实PDB结构的三个原子的位置,通过Gram-Schmidt过程构建frame, 注意,平移矢量 t ⃗ \vec{t} t 被分配给中心原子 x 2 ⃗ \vec{x_2} x2 。对于骨干frame,我们用N作为 x ⃗ 1 \vec{x}_1 x 1,Cα作为 x ⃗ 2 \vec{x}_2 x 2,C作为 x ⃗ 3 \vec{x}_3 x 3,所以框架的中心是Cα。对于侧链框架,我们使用扭键之前的原子作为 x ⃗ 1 \vec{x}_1 x 1,扭键之后的原子作为 x ⃗ 2 \vec{x}_2 x 2,之后的下一个原子作为 x ⃗ 3 \vec{x}_3 x 3
AlphaFold2源码解析(8)--模型之三维坐标构建_第4张图片

IPA模块

AlphaFold2源码解析(8)--模型之三维坐标构建_第5张图片

class InvariantPointAttention(hk.Module):
  def __call__(self, inputs_1d, inputs_2d, mask, affine):
    num_residues, _ = inputs_1d.shape
    num_head = self.config.num_head # 12
    num_scalar_qk = self.config.num_scalar_qk # 16
    num_point_qk = self.config.num_point_qk # 4
    num_scalar_v = self.config.num_scalar_v # 16
    num_point_v = self.config.num_point_v # 8
    num_output = self.config.num_channel # 384

    # 构造形状的标量查询
    # [num_query_residues, num_head, num_points]
    q_scalar = common_modules.Linear(
        num_head * num_scalar_qk, name='q_scalar')(
            inputs_1d) # q_i^{h} # [N_res, 192]
    q_scalar = jnp.reshape(
        q_scalar, [num_residues, num_head, num_scalar_qk]) #[N_res, 12, 16]

    # 构造形状的标量键/值
    # [num_target_residues, num_head, num_points]
    kv_scalar = common_modules.Linear(
        num_head * (num_scalar_v + num_scalar_qk), name='kv_scalar')(
            inputs_1d) #[N_res, 384]
    kv_scalar = jnp.reshape(kv_scalar,
                            [num_residues, num_head,
                             num_scalar_v + num_scalar_qk])
    k_scalar, v_scalar = jnp.split(kv_scalar, [num_scalar_qk], axis=-1) # k_i^{h} v_i^{h} #[N_res, 12, 16]

    # [num_residues, num_head, num_point_qk]
    #  首先在本地frame中构造查询点。
    q_point_local = common_modules.Linear(
        num_head * 3 * num_point_qk, name='q_point_local')(
            inputs_1d) # q_i^{hp} [N_res, 144]
    q_point_local = jnp.split(q_point_local, 3, axis=-1)#  3*[N_res, 48]
    #  将查询点投影到全局框架中
    q_point_global = affine.apply_to_point(q_point_local, extra_dims=1)
    q_point = [
        jnp.reshape(x, [num_residues, num_head, num_point_qk])
        for x in q_point_global] # 3*[N_res, 48] -> 3 *[N_res, 12, 4]

    # 构建k和v
    # Key points have shape [num_residues, num_head, num_point_qk]
    # Value points have shape [num_residues, num_head, num_point_v]

    # Construct key and value points in local frame. 在local frame中构造k和v。
    kv_point_local = common_modules.Linear(
        num_head * 3 * (num_point_qk + num_point_v), name='kv_point_local')(
            inputs_1d) #[N_res, 432]
    kv_point_local = jnp.split(kv_point_local, 3, axis=-1) #[N_res, 144]
    # Project key and value points into global frame. 将k和v纳入全全局frame
    kv_point_global = affine.apply_to_point(kv_point_local, extra_dims=1)
    kv_point_global = [
        jnp.reshape(x, [num_residues,
                        num_head, (num_point_qk + num_point_v)])
        for x in kv_point_global]
    # Split key and value points.
    k_point, v_point = list(
        zip(*[
            jnp.split(x, [num_point_qk,], axis=-1)
            for x in kv_point_global
        ])) # q_i^{hp} , k_j^{hp}

    # 我们假设所有q和k都来自N(0,1)分布,
    # Each scalar pair (q, k) contributes Var q*k = 1 并计算注意力逻辑的方差。每个标量对(q,k)贡献Var q*k=1
    scalar_variance = max(num_scalar_qk, 1) * 1.
    # Each point pair (q, k) contributes Var [0.5 ||q||^2 - ] = 9 / 2
    point_variance = max(num_point_qk, 1) * 9. / 2

    num_logit_terms = 3

    scalar_weights = np.sqrt(1.0 / (num_logit_terms * scalar_variance))
    point_weights = np.sqrt(1.0 / (num_logit_terms * point_variance)) # W_C
    attention_2d_weights = np.sqrt(1.0 / (num_logit_terms)) #W_L

    #可训练点的每个头权重
    trainable_point_weights = jax.nn.softplus(hk.get_parameter(
        'trainable_point_weights', shape=[num_head],
        # softplus^{-1} (1)
        init=hk.initializers.Constant(np.log(np.exp(1.) - 1.))))
    point_weights *= jnp.expand_dims(trainable_point_weights, axis=1) # \gamma^h W_c

    v_point = [jnp.swapaxes(x, -2, -3) for x in v_point] # 直接交换两个轴

    q_point = [jnp.swapaxes(x, -2, -3) for x in q_point]
    k_point = [jnp.swapaxes(x, -2, -3) for x in k_point]
    dist2 = [
        squared_difference(qx[:, :, None, :], kx[:, None, :, :]) #[12, 84, 1, 4] -[12, 1, 84 4]
        for qx, kx in zip(q_point, k_point)
    ] #[12, 84, 84, 4] *3
    dist2 = sum(dist2) # [12, 84, 84, 4]
    attn_qk_point = -0.5 * jnp.sum(
        point_weights[:, None, None, :] * dist2, axis=-1) # [12, 1,1,1] * [12, 84, 84, 4] -> [12, 84, 84]

    v = jnp.swapaxes(v_scalar, -2, -3)
    q = jnp.swapaxes(scalar_weights * q_scalar, -2, -3)
    k = jnp.swapaxes(k_scalar, -2, -3)
    attn_qk_scalar = jnp.matmul(q, jnp.swapaxes(k, -2, -1)) #q^{hT}_i * k^{h}_j
    attn_logits = attn_qk_scalar + attn_qk_point

    attention_2d = common_modules.Linear(
        num_head, name='attention_2d')(
            inputs_2d) #b_ij  # [84, 84, 12]

    attention_2d = jnp.transpose(attention_2d, [2, 0, 1]) # [12, 84, 84]
    attention_2d = attention_2d_weights * attention_2d
    attn_logits += attention_2d

    mask_2d = mask * jnp.swapaxes(mask, -1, -2) #[84,1] -> [84,84]
    attn_logits -= 1e5 * (1. - mask_2d)

    # [num_head, num_query_residues, num_target_residues]
    attn = jax.nn.softmax(attn_logits) # a_ij [12, N_res, N_res]

    # [num_head, num_query_residues, num_head * num_scalar_v]
    result_scalar = jnp.matmul(attn, v) # o^{h}_i

    # result_point_global = [jnp.einsum('bhqk,bhkc->bhqc', attn, vx)
    #                        for vx in v_point]
    # but on the TPU, doing the multiply and reduce_sum ensures the
    # computation happens in float32 instead of bfloat16.
    result_point_global = [jnp.sum(
        attn[:, :, :, None] * vx[:, None, :, :],
        axis=-2) for vx in v_point] # v_point->3*[12, 84, 8] [12, 84,84,1] [12, 1, 84, 8] -> [12, 84, 84, 8] ->sum [12, 84,8] *3

    # [num_query_residues, num_head, num_head * num_(scalar|point)_v]
    result_scalar = jnp.swapaxes(result_scalar, -2, -3)#[84,12, 16]
    result_point_global = [
        jnp.swapaxes(x, -2, -3)
        for x in result_point_global] # [12, 84,8]*3

    # [num_query_residues, ?]
    output_features = []

    result_scalar = jnp.reshape(
        result_scalar, [num_residues, num_head * num_scalar_v])
    output_features.append(result_scalar)

    result_point_global = [
        jnp.reshape(r, [num_residues, num_head * num_point_v])
        for r in result_point_global]
    result_point_local = affine.invert_point(result_point_global, extra_dims=1) # 逆变换 T_i^{-1}
    output_features.extend(result_point_local) # \tilde{o^{hp}_i}

    output_features.append(jnp.sqrt(self._dist_epsilon +
                                    jnp.square(result_point_local[0]) +
                                    jnp.square(result_point_local[1]) +
                                    jnp.square(result_point_local[2]))) # ||\tilde{o^{hp}_i}||

    result_attention_over_2d = jnp.einsum('hij, ijc->ihc', attn, inputs_2d) #o_i^{h}
    num_out = num_head * result_attention_over_2d.shape[-1]
    output_features.append(
        jnp.reshape(result_attention_over_2d,
                    [num_residues, num_out]))

    final_init = 'zeros' if self._zero_initialize_last else 'linear'

    final_act = jnp.concatenate(output_features, axis=-1) # concat_{h,p} [N_res, 2112]

    return common_modules.Linear(
        num_output,
        initializer=final_init,
        name='output_projection')(final_act) #[N_res, 384]

不变点注意(IPA)是一种作用于一组frames的注意力形式,在上述frames的全局欧几里得变换 T g l o b a l T_{global} Tglobal下是不变的。我们用纳米表示IPA内的所有坐标;单位的选择会影响注意力亲和力的点分量的比例。

为了定义不同术语的初始权重,我们假设所有的查询和钥匙都来自单位正态分布N(0, 1)的iid,并计算注意力对数的方差。每个标量对 q q q k k k的贡献是 V a r [ q k ] = 1 Var[qk]=1 Var[qk]=1。每个点对( q ⃗ , k ⃗ \vec{q},\vec{k} q ,k )贡献 V a r [ 0.5 ∣ ∣ q ⃗ ∣ ∣ 2 − q ⃗ T k ⃗ ] = 9 / 2 Var[0.5 ||\vec{q}||^2- \vec{q}^T\vec{k}] = 9/2 Var[0.5q 2q Tk ]=9/2。加权因子 w L w_L wL w C w_C wC的计算结果是,所有三个项的贡献相等,而且所得方差为1。每头的权重 γ h ∈ R γ^h\in R γhR是可学习标量的软加法。

不变性的证明是直截了当的。全局变换在亲和力计算中被抵消,因为矢量的L2-norm在刚性变换下是不变的。

在输出点的计算中,它在映射回本地frame时被抵消了。

相对于全局参考frame的不变性反过来又意味着,在保持嵌入固定的情况下,对所有的残差应用一个共同的刚性运动,将导致局部frame中的相同更新。因此,更新的结构将被相同的共享刚性运动所转化,这表明这一更新规则在刚性运动下是等值的。在这里和其他地方,"刚性运动 "包括适当的旋转和平移,但不包括反射。

骨干网更新

骨干frame的更新是通过预测一个用于旋转的四元数和一个用于平移的矢量创建的。非单位四元数的第一个分量被固定为1。定义欧拉轴的三个分量是由网络预测的。 这个程序保证了有效的归一化四元数,而且有利于小旋转而不是大旋转(四元数(1,0,0,0)是同一旋转)。
AlphaFold2源码解析(8)--模型之三维坐标构建_第6张图片

   if update_affine:
     # This block corresponds to
     # Jumper et al. (2021) Alg. 23 "Backbone update"
     affine_update_size = 6

     # Affine update
     affine_update = common_modules.Linear(
         affine_update_size,
         initializer=final_init,
         name='affine_update')(
             act)

     affine = affine.pre_compose(affine_update)

   sc = MultiRigidSidechain(c.sidechain, self.global_config)(
       affine.scale_translation(c.position_scale), [act, initial_act], aatype)

计算所有的原子坐标

结构模块预测骨干frame T i T_i Ti和扭转角 α ⃗ i f \vec{\alpha}^f_i α if。然后,通过将扭角应用于相应的氨基酸结构,以理想化的键角和键长构建原子坐标。 我们给每个刚体组附加一个局部frame,这样扭转轴就是X轴,并将每个氨基酸相对于这些frame的理想原子坐标存储在一个表 x ⃗ r , f , a l i t \vec{x}_{r,f,a}^{lit} x r,f,alit中,其中 r ∈ { A L A , A R G , A S N , . . . 、 } r \in \{ALA, ARG, ASN, ... 、\} r{ALA,ARG,ASN,...}表示残基类型, f ∈ S t o r s i o n n a m e s f \in S_{torsion names} fStorsionnames表示frame, a a a表示原子名称。 我们进一步预先计算刚性转换,将原子坐标从每个frame转换到层次结构中更高的frame。 例如, T r , ( χ 2 → χ 1 ) l i t T^{lit}_{r,(χ2→χ1)} Tr,(χ2χ1)lit将氨基酸类型 r r r的原子从 χ 2 χ^2 χ2frame映射到 χ 1 χ1 χ1frame。由于我们只预测重原子,额外的骨架刚性基团 ω ω ω φ φ φ不包含原子,但相应的frame会导致FAPE损失,从而与真实结构对齐(与所有其他框架一样)。


 # 将扭曲角度映射到frame
  backb_to_global = r3.rigids_from_quataffine(affine)
 # r3.Rigids with shape (N, 8).
  all_frames_to_global = all_atom.torsion_angles_to_frames(
      aatype,
      backb_to_global,
      angles)
def frames_and_literature_positions_to_atom14_pos(
    aatype: jnp.ndarray,  # (N)
    all_frames_to_global: r3.Rigids  # (N, 8)
) -> r3.Vecs:  # (N, 14)
  # Pick the appropriate transform for every atom.
  residx_to_group_idx = utils.batched_gather(
      residue_constants.restype_atom14_to_rigid_group, aatype)
  group_mask = jax.nn.one_hot(
      residx_to_group_idx, num_classes=8)  # shape (N, 14, 8)

  # r3.Rigids with shape (N, 14)
  map_atoms_to_global = jax.tree_map(
      lambda x: jnp.sum(x[:, None, :] * group_mask, axis=-1),
      all_frames_to_global)

  # Gather the literature atom positions for each residue.
  # r3.Vecs with shape (N, 14)
  lit_positions = r3.vecs_from_tensor(
      utils.batched_gather(
          residue_constants.restype_atom14_rigid_group_positions, aatype))

  # Transform each atom from its local frame to the global frame.
  # r3.Vecs with shape (N, 14)
  pred_positions = r3.rigids_mul_vecs(map_atoms_to_global, lit_positions)

  # Mask out non-existing atoms.
  mask = utils.batched_gather(residue_constants.restype_atom14_mask, aatype)
  pred_positions = jax.tree_map(lambda x: x * mask, pred_positions)

  return pred_positions
。。。。
output = jax.tree_map(lambda *x: jnp.stack(x), *outputs)

重命名对称真实原子

一些刚性基团的180◦旋转对称性导致该基团中所有不在旋转轴上的原子在命名上出现模糊。
AlphaFold2源码解析(8)--模型之三维坐标构建_第7张图片
算法26以全局一致的方式通过重新命名基础真理结构来解决命名的模糊性。对于每个残基,它计算原子的lDDT,对照所有非歧义原子的基础真知原子的两种可能命名("真 "和 “替代真”)。
非模棱两可的原子集合 S n o n − a m b i g u o u s a t o m s S_{non-ambiguous atoms} Snonambiguousatoms是表2的所有元组(residue-type, atom-type)减去表3的模棱两可的原子集合。随后,该算法对模糊的基础事实原子进行重新命名,使其与预测结构最匹配。
AlphaFold2源码解析(8)--模型之三维坐标构建_第8张图片

Amber 优化

为了解决任何剩余的结构违规和冲突,我们通过迭代约束能量最小化能力优化模型预测。这部分对结果没什么影响,我们省略。。。。

你可能感兴趣的:(DrugAi,人工智能,算法)