Contrastive Loss(Siamese Network)

Contrastive Loss (对比损失)

孪生神经网络(siamese network)中,其采用的损失函数是contrastive loss,这种损失函数可以有效的处理孪生神经网络中的paired data的关系。contrastive loss的表达式如下: 

其中d=||anbn||2,代表两个样本特征的欧氏距离,y为两个样本是否匹配的标签,y=1代表两个样本相似或者匹配,y=0则代表不匹配,margin为设定的阈值。

 

这种损失函数最初来源于Yann LeCun的《Dimensionality Reduction by Learning an Invariant Mapping》,主要是用在降维中,即本来相似的样本,在经过降维(特征提取)后,在特征空间中,两个样本仍旧相似;而原本不相似的样本,在经过降维后,在特征空间中,两个样本仍旧不相似。

观察上述的contrastive loss的表达式可以发现,这种损失函数可以很好的表达成对样本的匹配程度,也能够很好用于训练提取特征的模型。当y=1(即样本相似)时,损失函数只剩下∑yd2,即原本相似的样本,如果在特征空间的欧式距离较大,则损失函数(增函数)越大,则说明当前的模型不好。而当y=0时(即样本不相似)时,损失函数为∑(1−y)max(margind,0)2

(减函数),即当样本不相似时,其特征空间的欧式距离反而小的话,损失函数值会变大。

Contrastive Loss(Siamese Network)_第1张图片


这张图表示的就是损失函数值与样本特征的欧式距离之间的关系,其中红色虚线表示的是相似样本的损失值(Y=1时),蓝色实线表示的不相似样本的损失值(Y=0时)。这里的m为阈值,要视具体问题而定,对于不同的目标m的值会有不同的大小。而事实表明Constractive Loss对于多分类的问题经常会在训练集上过拟合,显得比较乏力。针对该问题的改进方法有Triplet Loss、四元组损失(Quadruplet loss)难样本采样三元组损失(Triplet loss with batch hard mining, TriHard loss)边界挖掘损失(Margin sample mining loss, MSML)

你可能感兴趣的:(深度学习笔记)