FYD【异常检测:Representation-based】

2021.10,排名第12。

背景

无监督异常检测的实质:了解正常样本的分布,将测试中的异常值作为异常进行检测。

正常图像分布的典型特征是正常图像的非球面中心/高斯分布/KNN。 

异常检测方法的分类:Reconstruction-based、Representation-based。

论文定义了一种新的自我监督学习任务-非对比学习(Non-contrastive learning),非对比学习是指训练一个语义上有意义的正常图像表示,而不利用与异常图像间的距离。

模型原理

Coarse Alignment Stage(粗对齐阶段)

图像级粗对齐

过程:将图像进行仿射变换后,通过ICA模块进行训练以形成全局对齐的表示(将图像随机配对,最小化二者间的l2距离。)。

作用:使正常图像的像素级分布正则化,防止过拟合。

参考

正则化:给损失函数加限制,规范循环迭代,防止自我膨胀。

l2:绝对值较大的予以很大的权重,绝对值娇小的予以很小的权重。

l1:对所有权重予以相同的惩罚。 

一篇文章完全搞懂正则化(Regularization)_见见大魔王的博客-CSDN博客_正则化

仿射变换:另外两种变换的叠加:线性变换,平移变换。

仿射变换(Affine Transformation)原理及应用(1)_Godswisdom的博客-CSDN博客_仿射变换原理

特征级粗对齐 

过程:通过预训练的Resnet网络提取特征,使提取的特征经过FCA模块配合上一步的表示做进一步对齐训练。

Fine Alignment Stage (细对齐阶段)

过程:随机洗牌抽样两个特征映射。一个经过3层卷积,一个经过2层卷积,通过余弦相似度度量进行训练。其中有防止模式崩溃的梯度停止操作。

测试

经过两个阶段后,可以在每个像素位置处形成高斯分布,利用测试图像与高斯分布间的马氏距离来做判断。

你可能感兴趣的:(异常检测&论文理解,计算机视觉,深度学习,pytorch)