SimCSE简介以及核心代码详解——无监督文本向量抽取

今年NLP 领域出现了一个比较火的模型叫SimCSE,文章的全称是Simple Contrastive Learning of Sentence Embeddings。直译过来就是:通过一种简单的对比学习去做句子嵌入。而且在可以不要监督数据的情况下,生成质量较好的句子向量。以往无论是word2vec词向量做平均,还是预训练的bert生成的句子向量等无监督的方式生成的句子向量都是太好。SimSCE可以算在无监督句向量的抽取领域又往前迈了一步。

对比学习

在介绍SimCSE之前,我们先来了解一个叫对比学习的东西。对比学习顾名思义就是需要通过对比来学习,这里笔者拿图像领域的特征抽取来介绍一下对比学习的整个过程,如下图所示:
(1)将一只猫的图X,数据增强的方式生成另一张猫的图片作为正例X+,构建正例样本对,选择一只狗作为负例X-。
(2)将这个正负例样本组(X,X+,X-)同时输入到一个模型中进行特征抽取。
(3)优化对比损失,将X和X+的在特征空间里面的距离拉近,同时将X和X-在特征空间中的距离拉远。

这样整个对比学习的过程就介绍完了,通过对比学习我们就可以得到高质量的特征表示。至于如何构建正负例样本组(X,X+,X-),如何两个样本在衡量样本空间距离等,都是值得探索和思考的问题。

对比学习

通过对比学习方式,可以达到下面两个目的:
(1)相似图片早特征空间靠的很近,这就实现了相似图片,它们的特征也比较相近
(2)而不相似的图片在特征空间中距离会非常大,导致这些具有差异性得图片会比较分散的分布在特征空间中,
从另一个角度上来思考,就是特征空间的信息会尽可能的多。


特征空间

从对比学习的整个流程来看,我们可以发现在没有标注数据的时候,只需要做一下数据增强构建正例样本对,就可以很方便的使用对比学习抽取出比较有用的特征向量。

SimSCE的设计思路

而SimSCE 就是一个采用对比学习框架进行句子嵌入的方法,SimCES提出了有监督和无监督这两种对比学习方式来进行句子嵌入。只不过SimSCE 构建正例样本的方法非常的简单,但是却能够产生奇效。那我们就来看看SimCSE 到底是如何构建正样本对的。

SimCSE
无监督的SimSCE:采用dropout做数据增强,来构建正例

如上图所示,过程如下:
(1) 将同一个句子输入到模型两次,得到两个不同的特征向量。(这里就有人会疑问了,为什么一个句子输入到模型两次会得到不同的向量呢,这是由于模型中存在dropout 层,神经元随机失活会导致同一个句子在训练阶段输入到模型中得到的输出都会不一样).
(2) 在一个batch中,将同一个句子在模型中的两次输出当作正例,将其他句子的输出全部当作负例。
(3) 优化对比损失,增加正例之间的相似度,减小负例之间的相似度。

有监督的SimSCE:数据集中存在相似句子对(X,X+)这样的正例样本对

如上图所示,过程如下:
(1) 由于数据集中存在标注好的相似数据,这里只需要做一个简单的负采样,构造(X,X+,X-)三元组。
(2) 然后将这个(X,X+,X-)同时输入到文本向量抽取的模型中进行特征抽取。
(3) 优化对比损失,增加正例之间的相似度,减小负例之间的相似度。

SimCSE 对比Loss的代码详解

这里笔者解读了一下https://github.com/zhengyanzhao1997/NLP-model/tree/main/model/model/Torch_model/SimCSE-Chinese 这位大神实现的对比损失,将每一行的输出以及含义在comment 里进行了仔细的描述,希望能够帮助到初识SimCSE的同学。

无监督的SimCSE的 Loss 实现与详解

这里假设每个batch 输入给模型的样本 格式如下 :
(1) [0,1,2,3,4,5] 代表一个batch中含有六个样本
(2)其中0,1表示同一个句子,其中2,3是同一个句子,其中4,5是同一个句子
那么 模型的输出 y_pred 就是[X0,X1,X2,X3,X4,X5] 这六个句子的向量表示。
对比Loss 的详解 如下。

def compute_loss(y_pred, lamda=0.05):
    idxs = torch.arange(0, y_pred.shape[0])  # [0,1,2,3,4,5] 
   #这里[(0,1),(2,3),(4,5)]代表三组样本,
   #其中0,1是同一个句子,输入模型两次
   #其中2,3是同一个句子,输入模型两次
   #其中4,5是同一个句子,输入模型两次
    y_true = idxs + 1 - idxs % 2 * 2 #  生成真实的label  = [1,0,3,2,5,4]  
    # 计算各句子之间的相似度,形成下方similarities 矩阵,其中xij 表示第i句子和第j个句子的相似度
   #[[ x00,x01,x02,x03,x04 ,x05  ]
   # [ x10,x11,x12,x13,x14 ,x15  ]
   # [ x20,x21,x22,x23,x24 ,x25  ]
   # [ x30,x31,x32,x33,x34 ,x35  ]
   # [ x40,x41,x42,x43,x44 ,x45  ]
   # [ x50,x51,x52,x53,x54 ,x55  ]]
    similarities = F.cosine_similarity(y_pred.unsqueeze(1), y_pred.unsqueeze(0), dim=2)
    # similarities屏蔽对角矩阵即自身相等的loss
   #[[ -nan,x01,x02,x03,x04 ,x05   ]   
   # [ x10, -nan,x12,x13,x14 ,x15 ]
   # [ x20,x21, -nan,x23,x24 ,x25 ]
   # [ x30,x31,x32, -nan,x34 ,x35 ]
   # [ x40,x41,x42,x43, -nan,x45  ]
   # [ x50,x51,x52,x53,x54 , -nan ]]
    similarities = similarities - torch.eye(y_pred.shape[0]) * 1e12
    # 论文中除以 temperature 超参
    similarities = similarities / lamda
    #下面这一行计算的是相似矩阵每一行和y_true = [1,0,3,2,5,4] 的交叉熵损失
   #[[ -nan,x01,x02,x03,x04 ,x05  ]   label = 1 含义:第0个句子应该和第1个句子的相似度最高,即x01越接近1越好
   # [ x10, -nan,x12,x13,x14,x15 ]   label = 0  含义:第1个句子应该和第0个句子的相似度最高,即x10越接近1越好
   # [ x20,x21, -nan,x23,x24,x25 ]   label = 3  含义:第2个句子应该和第3个句子的相似度最高,即x23越接近1越好
   # [ x30,x31,x32, -nan,x34,x35 ]   label = 2  含义:第3个句子应该和第2个句子的相似度最高,即x32越接近1越好
   # [ x40,x41,x42,x43, -nan,x45 ]   label = 5  含义:第4个句子应该和第5个句子的相似度最高,即x45越接近1越好
   # [ x50,x51,x52,x53,x54 , -nan ]]  label = 4 含义:第5个句子应该和第4个句子的相似度最高,即x54越接近1越好
   #这行代码就是simsce的核心部分,就是一个句子被dropout 两次得到的向量相似度应该越大 
   #越好,且和其他句子向量的相似度越小越好
    loss = F.cross_entropy(similarities, y_true) 
    return torch.mean(loss)

有监督的SimCSE的Loss 详解

这里假设每个batch 输入给模型的样本 格式如下 :
(1) [0,1,2,3,4,5] 代表一个batch中含有六个样本
(2)[(0,1,2),(3,4,5)]代表二组样本,其中0,1是相似句子代表正例,0,2是不相似的句子代表负例;其中3,4是相似句子代表正例,3,5是不相似的句子代表负例

同意模型的输出 y_pred 就是[X0,X1,X2,X3,X4,X5] 这六个句子的向量表示。
对比Loss 的详解 如下。

def compute_loss(y_pred,lamda=0.05):
    row = torch.arange(0,y_pred.shape[0],3,device='cuda') # [0,3]
    col = torch.arange(y_pred.shape[0], device='cuda') # [0,1,2,3,4,5]
   #这里[(0,1,2),(3,4,5)]代表二组样本,
   #其中0,1是相似句子,0,2是不相似的句子
   #其中3,4是相似句子,3,5是不相似的句子
    col = torch.where(col % 3 != 0)[0].cuda() # [1,2,4,5]
    y_true = torch.arange(0,len(col),2,device='cuda') # 生成真实的label  = [0,2]
   #计算各句子之间的相似度,形成下方similarities 矩阵,其中xij 表示第i句子和第j个句子的相似度
   #[[ x00,x01,x02,x03,x04 ,x05  ]
   # [ x10,x11,x12,x13,x14 ,x15  ]
   # [ x20,x21,x22,x23,x24 ,x25  ]
   # [ x30,x31,x32,x33,x34 ,x35  ]
   # [ x40,x41,x42,x43,x44 ,x45  ]
   # [ x50,x51,x52,x53,x54 ,x55  ]]
    similarities = F.cosine_similarity(y_pred.unsqueeze(1), y_pred.unsqueeze(0), dim=2)
    #这里将similarities 做切片处理,形成下方矩阵
    #[[ x01,x02,x04 ,x05 ]  
    # [x31,x32,x34 ,x35 ]]
    similarities = torch.index_select(similarities,0,row)
    similarities = torch.index_select(similarities,1,col)
    #论文中除以 temperature 超参 
    similarities = similarities / lamda
   #下面这一行计算的是相似矩阵每一行和y_true = [0, 2] 的交叉熵损失
   #[[ x01,x02,x04 ,x05 ]   label = 0 含义:第0个句子应该和第1个句子的相似度最高,  即x01越接近1越好
   # [x31,x32,x34 ,x35 ]]  label = 2 含义:第3个句子应该和第4个句子的相似度最高   即x34越接近1越好
   #这行代码就是simsce的核心部分,和正例句子向量相似度应该越大 
   #越好,和负例句子之间向量的相似度越小越好
    loss = F.cross_entropy(similarities,y_true)
    return torch.mean(loss)

结语

其实除了通过dropout 两次来构造对比学习的正例样本,其实还有很多的方式构造正例,比如可以采用文本处理里面经常用到的同义词替换,回译等方式去进行正例构造,但SimCSE的作者想到用dropout这么简单的方式来构建对比学习的正例样本对,并且在很多数据集上表现不俗,不得不感叹一句——大道至简。

参考:
https://blog.csdn.net/weixin_45839693/article/details/116302914
https://kexue.fm/archives/8348
https://link.springer.com/chapter/10.1007/978-3-030-95398-0_15
https://github.com/zhengyanzhao1997/NLP-model/tree/main/model/model/Torch_model/SimCSE-Chinese

你可能感兴趣的:(SimCSE简介以及核心代码详解——无监督文本向量抽取)