机器学习系列-- 异常检测(Anomaly Detection)

目录

1、问题的动机

2、高斯分布

3、异常检测算法

4、开发和评价一个异常检测系统

5、异常检测与监督学习对比

 6、特征选择


1、问题的动机

这一部分介绍异常检测(Anomaly detection)问题。这是机器学习算法的一个常见应用。这种算法的一个有趣之处在于:它虽然主要用于非监督学习问题,但从某些角度看,它又类似于一些监督学习问题。

什么是异常检测呢?为了解释这个概念,举一个例子吧:

假想你是一个飞机引擎制造商,当你生产的飞机引擎从生产线上流出时,你需要进行QA(质量控制测试),而作为这个测试的一部分,你测量了飞机引擎的一些特征变量,比如引擎运转时产生的热量,或者引擎的振动等等

机器学习系列-- 异常检测(Anomaly Detection)_第1张图片

这样一来,你就有了一个数据集,从 x^{1} 到 x^{m} ,如果你生产了个引擎的话,你将这些数据绘制成图表,看起来就是这个样子:

机器学习系列-- 异常检测(Anomaly Detection)_第2张图片

这里的每个点、每个叉,都是你的无标签数据。这样,异常检测问题可以定义如下:我们假设后来有一天,你有一个新的飞机引擎从生产线上流出,而你的新飞机引擎有特征变量 x_{test}  。所谓的异常检测问题就是:我们希望知道这个新的飞机引擎是否有某种异常,或者说,我们希望判断这个引擎是否需要进一步测试。因为,如果它看起来像一个正常的引擎,那么我们可以直接将它运送到客户那里,而不需要进一步的测试。

给定数据集 x^{(1)},x^{(2)},x^{(3)},...,x^{(m)} ,我们假使数据集是正常的,我们希望知道新的数据x_{test}  是不是异常的,即这个测试数据不属于该组数据的几率如何。我们所构建的模型应该能根据该测试数据的位置告诉我们其属于一组数据的可能性 p(x)

机器学习系列-- 异常检测(Anomaly Detection)_第3张图片

上图中,在蓝色圈内的数据属于该组数据的可能性较高,而越是偏远的数据,其属于该组数据的可能性就越低。

这种方法称为密度估计,表达如下:

 欺诈检测:

模型 p(x)为我们其属于一组数据的可能性,通过 p(x) < \varepsilon 检测非正常用户。 

异常检测主要用来识别欺骗。例如在线采集而来的有关用户的数据,一个特征向量中可能会包含如:用户多久登录一次,访问过的页面,在论坛发布的帖子数量,甚至是打字速度等。尝试根据这些特征构建一个模型,可以用这个模型来识别那些不符合该模式的用户。

再一个例子是检测一个数据中心,特征可能包含:内存使用情况,被访问的磁盘数量,CPU的负载,网络的通信量等。根据这些特征可以构建一个模型,用来判断某些计算机是不是有可能出错了。

2、高斯分布

高斯分布,也称为正态分布。回顾高斯分布的基本知识。

通常如果我们认为变量 x 符合高斯分布 则其概率密度函数为

我们可以利用已有的数据来预测总体中的和的计算方法如下: 

                                             

 高斯分布样例:机器学习系列-- 异常检测(Anomaly Detection)_第4张图片

 注:机器学习中对于方差我们通常只除以 m 而非统计学中的(m-1)。这里顺便提一下,在实际使用中,到底是选择使用 1/m 还是 1/(m-1)其实区别很小,只要你有一个还算大的训练集,在机器学习领域大部分人更习惯 1/m 使用这个版本的公式。这两个版本的公式在理论特性和数学特性上稍有不同,但是在实际使用中,他们的区别甚小,几乎可以忽略不计。

3、异常检测算法

异常检测算法:

对于给定的数据集 x^{(1)},x^{(2)},x^{(3)},...,x^{(m)},我门需要针对每一个特征计算 \mu 和 \delta^{2} 的估计值

机器学习系列-- 异常检测(Anomaly Detection)_第5张图片

 一旦我们获得了平均值和方差的估计值,给定新的一个训练实例,根据模型计算p(x)

当 p(x) <\varepsilon 时,为异常。

下图是一个由两个特征的训练集,以及特征的分布情况:

机器学习系列-- 异常检测(Anomaly Detection)_第6张图片

下面的三维图表表示的是密度估计函数,z 轴为根据两个特征的值所估计 p(x) 值:

机器学习系列-- 异常检测(Anomaly Detection)_第7张图片

我们选择一个 \varepsilon,将 p(x) = \varepsilon 作为我们的判定边界,当 p(x) > \varepsilon 时预测数据为正常数据,否则为异常。

4、开发和评价一个异常检测系统

异常检测算法是一个非监督学习算法,意味着我们无法根据结果变量 y 的值来告诉我们数据是否真的是异常的。我们需要另一种方法来帮助检验算法是否有效。当我们开发一个异常检测系统时,我们从带标记(异常或正常)的数据着手,我们从其中选择一部分正常数据用于构建训练集,然后用剩下的正常数据和异常数据混合的数据构成交叉检验集和测试集。

例如:我们有10000台正常引擎的数据,有20台异常引擎的数据。 我们这样分配数据:

6000台正常引擎的数据作为训练集

2000台正常引擎和10台异常引擎的数据作为交叉检验集

2000台正常引擎和10台异常引擎的数据作为测试集

具体的评价方法如下:

  1. 根据测试集数据,我们估计特征的平均值和方差并构建 p(x) 函数
  2. 对交叉检验集,我们尝试使用不同的值作为阀值,并预测数据是否异常,根据F1值或者查准率与查全率的比例来选择 \varepsilon
  3. 选出 \varepsilon 后,针对测试集进行预测,计算异常检验系统的 F1 值,或者查准率与查全率之比

5、异常检测与监督学习对比

之前我们构建的异常检测系统也使用了带标记的数据,与监督学习有些相似,下面的对比有助于选择采用监督学习还是异常检测:

两者比较:机器学习系列-- 异常检测(Anomaly Detection)_第8张图片

 6、特征选择

对于异常检测算法,我们使用的特征是至关重要的,下面谈谈如何选择特征:

异常检测假设特征符合高斯分布,如果数据的分布不是高斯分布,异常检测算法也能够工作,但是最好还是将数据转换成高斯分布,例如使用对数函数:x=log(x+c),其中 c  为非负常数; 或者 x=x^{c},c 为 0-1 之间的一个分数,等方法。(编者注:在python中,通常用np.log1p()函数,log1p 就是 log(x+1) ,可以避免出现负数结果,反向函数就是np.expm1())

机器学习系列-- 异常检测(Anomaly Detection)_第9张图片

误差分析:

一个常见的问题是一些异常的数据可能也会有较高的 p(x) 值,因而被算法认为是正常的。这种情况下误差分析能够帮助我们,我们可以分析那些被算法错误预测为正常的数据,观察能否找出一些问题。我们可能能从问题中发现我们需要增加一些新的特征,增加这些新特征后获得的新算法能够帮助我们更好地进行异常检测。

异常检测误差分析:

机器学习系列-- 异常检测(Anomaly Detection)_第10张图片

我们通常可以通过将一些相关的特征进行组合,来获得一些新的更好的特征(异常数据的该特征值异常地大或小),例如,在检测数据中心的计算机状况的例子中,我们可以用CPU负载与网络通信量的比例作为一个新的特征,如果该值异常地大,便有可能意味着该服务器是陷入了一些问题中。

在这段视频中,我们介绍了如何选择特征,以及对特征进行一些小小的转换,让数据更像正态分布,然后再把数据输入异常检测算法。同时也介绍了建立特征时,进行的误差分析方法,来捕捉各种异常的可能。希望你通过这些方法,能够了解如何选择好的特征变量,从而帮助你的异常检测算法,捕捉到各种不同的异常情况。

你可能感兴趣的:(机器学习,人工智能,异常检测)