用于异常检测的深度学习方法综述

"Deep learning for anomaly detection: A survey"论文整理,本论文对将深度学习方法应用于异常检测任务作了较为详细的综述。

1.介绍

当分析现实世界的数据集时,一个常见的需求是分析哪些实例可以被视为异常,与其他实例存在显著不同。异常检测任务的目的就是用以数据作为驱动的方法来找到全部异常的实例。异常可能由数据中的错误导致,但是有时也会有一些潜在的、未知的过程造成。深度学习方法的性能已经超过了传统的方法,故本文主要针对深度异常检测(deep anomaly detection(DAD))方法做综述。


image.png

2.何为异常

如图所示,N1,N2为主要观测到的数据,因此被认为是正常的数据区域,而远离这些区域的数据域O3及数据点O1,O2因此被认为是异常。


image.png

3何为新奇

新奇检测(novelty detection)是对数据中新奇的或是没观测到过的数据的识别。
新奇检测与异常检测的关系与区别可见图,对于常见的老虎,白色的老虎可作为新奇,而其他类别的动物视作异常。


image.png

4挑战

正常与异常数据的边界往往是难以界定的,并且数据是不断演化的,对边界缺乏良好的理解对基于深度学习的算法具有一定的挑战。

5相关工作

image.png

8基于深度学习的异常检测算法的不同方向

8.1输入数据的特性

数据数据的可以广义上划分为序列的(声音,文本,音乐,)和非序列的(图片)

8.2基于标签的可获得性

8.2.1监督型深度异常检测

可视为监督型的二分类或者多分类任务,使用正常与异常的数据标签。尽管监督型的深度异常检测方法提升了性能,但是其应用不如半监督及非监督方法广泛,因为数据的标签难以获得,而且由于数据不均衡性(正常样本数量远远大于异常样本数量),该方法性能受到影响。

8.2.2半监督深度异常检测

正常样本的标签要比异常样本易于获得,所以半监督方法应用更广。该方法使用现有的正常样本的标签来分辨异常。一种使用深度自编码器进行异常检测的方法为使用半监督方法在正常数据上训练自编码器,充分训练后,深度自编码器对于正常数据的重建误差要比异常数据低。

8.2.3非监督深度异常检测。

非监督方法基于数据固有特征检测异常,用于数据标签难以获得的场景。自动编码器是所有非监督DAD方法的核心.

8.3基于训练目标

8.3.1深度混合模型(deep hybrid models)

该模型使用深度神经网络,主要是自编码器作为特征提取器。隐藏层学习到的特征送入传统异常检测算法中,例如单分类SVM进行缺陷检测。该方法一大缺陷是缺乏可训练目标的定制化,使得无法提取到足够丰富的特征。


image.png

8.3.1单类神经网络(deep hybrid models)

8.4异常类型

image.png

点异常:与其他数据差异极大,单个出现
上下文异常:与上下文数据明显不符的异常


image.png

收集异常:由于收集错误导致一批数据出现异常。


image.png

8.5异常输出技术

异常分数及标签

10 DAD深度异常检测模型

10.1监督DAD

监督学习的异常检测方法依靠将数据分类,而非监督技术希望对数据进行解释与理解。多分类异常检测技术基本思路为训练一个多分类器用于区分正常及异常多类样本。模型分类两部分,特征提取网络及分类网络。深度学习对于数据量要求较高,使得该类方法难以获得足够数量的干净样本标签。
优点:准确率比半监督和非监督方法高;测试时间快(仅需要推理)
缺点:需要准确的数据标签,难以获得;如果特征空间高度复杂及非线性,将难以完成分类。

10.2半监督DAD

半监督DAD假设所有的训练样本只有一个标签,即正样本,训练过程学习到正样本的界限,测试时,不属于正样本边界内的就划为异常。
优点:GAN在半监督异常检测方法展现了良好的性能,即便只有很少的标签数据;标签的使用,通常是一类,能够相对非监督方法获得较好的效果。

10.3混合DAD

深度模型提取特征+SVM进行分类。
由于两阶段学习,加剧计算量。
优点:特征提取能够有效降低尺度粗糙。

10.5非监督DAD

主要使用自编码器。
该方法假设:在原始或者隐特征空间中,正常的数据是能够和异常数据区分开;正常数据占绝大多数。
自动编码器的训练,计算复杂性要比传统方法(PCA(principal component analysis))高。
优点:无需数据标注
缺点:对于在复杂而高纬空间的数据进行学习是有难度的;难以获得适当的数据降维;对噪声敏感;准确率较低。

10.6其他方法

你可能感兴趣的:(用于异常检测的深度学习方法综述)