相关contrastive loss对比损失详解

 

文章目录

一、传统contrastive loss

二、WDMC loss(DASNet)

1.应用于变化检测的contrastive loss变形

若对文章理解有歧义,欢迎留言交流,整理不易,欢迎一键三连!!!

 


一、传统contrastive loss

对比损失是一种降维学习方法,它可以学习一种映射关系,这种映射关系可以使得在高维空间中,相同类别但距离较远的点,通过函数映射到低维空间后,距离变近,不同类别但距离都较近的点,通过映射后再低维空间变得更远。该损失函数在深度学习中主要是用于降维中,即本来相似的样本,在经过降维(特征提取)后,在特征空间中,两个样本仍旧相似;而原本不相似的样本,在经过降维后,在特征空间中,两个样本仍旧不相似。

其中,D_{W}代表X_{1}X_{2}之间的欧氏距离。Y 为两个样本是否匹配的标签,Y = 1 代表两个样本相似或者匹配,Y = 0 则代表不匹配,m为设定的阈值,N为样本个数。

相关contrastive loss对比损失详解_第1张图片

当Y=0时,代表两个样本不相似,L = max(m-D_{W},0)^{2}。若D_{W}>m,则表示二者距离大于阈值m,此时L=0,表示对大于阈值的两个样本对不做处理;

当Y=0时,代表两个样本不相似,L = max(m-D_{W},0)^{2}。若D_{W}<m,则表示二者距离大于阈值m,此时L=max(m-D_{W})^{2},表示对小于阈值的两个样本对做惩罚;

当Y=1时,代表两个样本相似,L = D_{W}^{2}。表示两个样本对距离越大,惩罚越大,距离越小,惩罚越小。

二、WDMC loss(DASNet)

1.应用于变化检测的contrastive loss变形

WDMC loss的含义是从文章DASNet: Dual attentive fully convolutional siamese networks for change detection in high-resolution(2020)提出,其中文章中对WDMC loss的介绍有点错误,因此在这里指正,文章中的loss是这样写的:

相关contrastive loss对比损失详解_第2张图片

通过校对代码和理解,我在这里对文章中的公式提出修改,正确的WDMC loss应该是这样:

\large WDMC Loss=\sum_{i,j}^N\frac{1}{2}[w_{1}(1-y_{i,j})max(d_{i,j}-m_{1}),0)]^{2} +w_{2}y_{i,j}max(m_{2}-d_{i,j}),0)]^{2}

其中,\large w_{1},w_{2}代表不变和变化两种状态的权重;其余表示与传统表示一致。以下分析中,不对\large w_{1},w_{2}做解释和分析:

当Y=0时,代表两个样本对是不变的,L = max(d_{i,j}-m_{1},0)^{2}。若d_{i,j}>{m_{1}},则表示二者距离大于阈值m,此时L=(d_{i,j}-{m_{1}})^{^{2}},表示对大于阈值的两个样本对做惩罚;

当Y=0时,代表两个样本对是不变的,L = max(d_{i,j}-m_{1},0)^{2}。若d_{i,j}<{m_{1}},则表示二者距离小于阈值m,此时L=0,表示对小于阈值的两个样本不做处理;

当Y=1时,代表两个样本对是变化的,L = max(m_{2}-d_{i,j},0)^{2}。若d_{i,j}>{m_{2}},则表示二者距离大于阈值m,此时L=0,表示对大于阈值的两个样本不做处理;

当Y=1时,代表两个样本对是变化的,L = max(m_{2}-d_{i,j},0)^{2}。若d_{i,j}<{m_{2}},则表示二者距离小于阈值m,此时L=(m_{2}-{d_{i,j}})^{^{2}},表示对小于阈值的两个对做惩罚;

很容易理解,当两个样本对是不变的,那么对距离较大(大于阈值m)的样本对做惩罚,当两个样本对是变化的,那么对距离较小(小于阈值m)的样本对做惩罚。


若对文章理解有歧义,欢迎留言交流,整理不易,欢迎一键三连!!!

 

你可能感兴趣的:(人工智能,深度学习,算法,变化检测,损失函数)