DL四(预处理:主成分分析与白化 Preprocessing PCA and Whitening )

预处理:主成分分析与白化

PreprocessingPCA and Whitening

主成分分析 PCA

1.1 基本术语

  主成分分析 Principal Components Analysis

白化 whitening

亮度 intensity

平均值 mean

方差 variance

协方差矩阵 covariance matrix

basis

幅值 magnitude

平稳性 stationarity

特征向量 eigenvector

特征值 eigenvalue

 

1.2 介绍

 

  主成分分析(Principal Components AnalysisPCA)是一种能够极大提升无监督特征学习速度的数据降维算法。理解PCA算法,对实现白化(whitening算法有很大的帮助,很多算法都先用白化算法作预处理步骤。由于特征间的相关性,PCA算法可以将输入向量转换为一个维数低很多的近似向量,而且误差非常小。

 

1.3 PCA实例

 

 

1.3.1 数学背景

 

  在我们的实例中,使用的输入数据集表示为,维度 。假设我们想把数据从2维降到1维。下图是我们的数据集:

DL四(预处理:主成分分析与白化 Preprocessing PCA and Whitening )_第1张图片

  这些数据已经进行了预处理,使得每个特征具有相同的均值(零)和方差。为方便展示,根据值的大小,我们将每个点分别涂上了三种颜色。

  PCA算法将寻找一个低维空间来投影我们的数据。从下图中可以看出,是数据变化的主方向,而 是次方向。

DL四(预处理:主成分分析与白化 Preprocessing PCA and Whitening )_第2张图片

  为更形式化地找出方向,我们首先计算出矩阵,如下所示:

  假设的均值为零,那么就是协方差矩阵(the covariance matrix。(符号 ,读"Sigma",是协方差矩阵的标准符号。虽然看起来与求和符号比较像,但它们其实是两个不同的概念。)

  可以证明,数据变化的主方向就是协方差矩阵的主特征向量,而是次特征向量。

  我们先计算出协方差矩阵的特征向量,按列排放,而组成矩阵

此处,是主特征向量(对应最大的特征值),是次特征向量。以此类推,另记为相应的特征值。

在本例中,向量构成了一个新基,可以用来表示数据。令为训练样本,那么就是样本点在维度上的投影的长度(幅值)。同样的,投影到维度上的幅值。

1.3.2 旋转数据(Rotating the Data

  至此,我们可以把 基表达为:

  对数据集中的每个样本分别进行旋转: for every ,然后把变换后的数据显示在坐标图上,可得:

DL四(预处理:主成分分析与白化 Preprocessing PCA and Whitening )_第3张图片

  矩阵有正交性,即满足,所以若想将旋转后的向量还原为原始数据,将其左乘矩阵即可:

1.3.3 数据降维(Reducing the Data Dimension

  数据的主方向就是旋转数据的第一维。因此,若想把这数据降到一维,可令:

  更一般的,假如想把数据降到维表示(令),只需选取的前个成分,分别对应前个数据变化的主方向。

  PCA的另外一种解释是:是一个 维向量,其中前几个成分可能比较大,而后面成分可能会比较小。

  PCA算法做的其实就是丢弃中后面(取值较小)的成分,就是将这些成分的值近似为零。具体的说,设的近似表示,那么将除了前个成分外,其余全赋值为零,就得到:

DL四(预处理:主成分分析与白化 Preprocessing PCA and Whitening )_第4张图片

  在本例中,可得的点图如下(取 ):

DL四(预处理:主成分分析与白化 Preprocessing PCA and Whitening )_第5张图片

  然而,由于上面的后项均为零,没必要把这些零项保留下来。所以,我们仅用前个(非零)成分来定义维向量

1.3.4 还原近似数据(Recovering an Approximation of the Data

  我们把看作将的最后个元素被置0所得的近似表示,因此如果给定 ,可以通过在其末尾添加0来得到对的近似,最后,左乘便可近似还原出原数据。具体来说,计算如下:

DL四(预处理:主成分分析与白化 Preprocessing PCA and Whitening )_第6张图片

  将该算法应用于本例中的数据集,可得如下关于重构数据的点图:

DL四(预处理:主成分分析与白化 Preprocessing PCA and Whitening )_第7张图片

  在训练自动编码器或其它无监督特征学习算法时,算法运行时间将依赖于输入数据的维数。若用取代 作为输入数据,那么算法就可使用低维数据进行训练,运行速度将显著加快。对于很多数据集来说,低维表征量 是原数据集的极佳近似,因此在这些场合使用PCA是很合适的,它引入的近似误差的很小,却可显著地提高你算法的运行速度。

1.3.5 选择主成分个数(Number of components to retain

  决定值时,我们通常会考虑不同值可保留的方差百分比(percentage of variance retained)。具体来说,如果,那么我们得到的是对数据的完美近似,也就是保留了100%的方差,即原始数据的所有变化都被保留下来;相反,如果,那等于是使用零向量来逼近输入数据,也就是只有0%的方差被保留下来。

  一般而言,设表示的特征值(按由大到小顺序排列),使得 为对应于特征向量的特征值。那么如果我们保留前个成分,则保留的方差百分比可计算为:

  很容易证明,。因此,如果,则说明也就基本上接近于0,所以用0来近似它并不会产生多大损失。

  以处理图像数据为例,一个惯常的经验法则是选择以保留99%的方差,换句话说,我们选取满足以下条件的最小值:

  对其它应用,如不介意引入稍大的误差,有时也保留90-98%的方差范围。若向他人介绍PCA算法详情,告诉他们你选择的保留了95%的方差,比告诉他们你保留了前120个(或任意某个数字)主成分更好理解。

1.3.6 PCA应用注意事项

  具体而言,为使PCA算法正常工作,我们通常需要满足以下要求:(1)特征的均值大致为0(2)不同特征的方差值彼此相似。对于自然图片,即使不进行方差归一化操作,条件(2)也自然满足,故而我们不再进行任何方差归一化操作(对音频数据,如声谱,或文本数据,如词袋向量,我们通常也不进行方差归一化)。实际上,PCA算法对输入数据具有缩放不变性,无论输入数据的值被如何放大(或缩小),返回的特征向量都不改变。更正式的说:如果将每个特征向量 都乘以某个正数(即所有特征量被放大或缩小相同的倍数),PCA的输出特征向量都将不会发生变化。

  既然我们不做方差归一化,唯一还需进行的规整化操作就是均值规整化,其目的是保证所有特征的均值都在0附近。根据应用,在大多数情况下,我们并不关注所输入图像的整体明亮程度。比如在对象识别任务中,图像的整体明亮程度并不会影响图像中存在的是什么物体。更为正式地说,我们对图像块的平均亮度值不感兴趣,所以可以减去这个值来进行均值规整化。

1.4 补充知识

1.4.1协方差矩阵(the covariance matrix

  协方差(Covariance在概率论和统计学中用于衡量两个变量的总体误差。而方差是协方差的一种特殊情况,即当两个变量是相同的情况。

期望值分别为的两个实数随机变量XY之间的协方差定义为:

  协方差矩阵(the covariance matrix是一个矩阵,其每个元素是各个向量元素之间的协方差。这是从标量随机变量到高维度随机向量的自然推广。假设X是以n个标量随机变量组成的列向量,

DL四(预处理:主成分分析与白化 Preprocessing PCA and Whitening )_第8张图片

1.4.2 特征向量(eigenvector)和特征值(eigenvalue

  定义   阶方阵,若有数和非零向量,使得

  称数 的特征值,非零向量对应于特征值的特征向量。

特征值和特征向量的求法:

1   ,并且由于是非零向量,故行列式,即

(称之为的特征方程)

由此可解出 个根(在复数范围内),这就是的所有特征值。

2   根据某个特征值 ,由线性方程组解出非零解,这就是对应于特征值的特征向量。

二 白化 Whitening 

2.1 基本术语

  白化 whitening

冗余 redundant

方差 variance

平滑 smoothing

降维 dimensionality reduction

正则化 regularization

反射矩阵 reflection matrix

去相关 decorrelation

2.2 介绍

  我们已经了解了如何使用PCA降低数据维度。在一些算法中还需要一个与之相关的预处理步骤,这个预处理过程称为白化(一些文献中也叫sphering。举例来说,假设训练数据是图像,由于图像中相邻像素之间具有很强的相关性,所以用于训练时输入是冗余的。白化的目的就是降低输入的冗余性;更正式的说,我们希望通过白化过程使得学习算法的输入具有如下性质:

  1. 特征之间相关性较低;
  2. 所有特征具有相同的方差。

2.3 白化和ZCA白化

  由前面的例子,特征的分布如下图所示:

DL四(预处理:主成分分析与白化 Preprocessing PCA and Whitening )_第9张图片

  这个数据的协方差矩阵如下:

  是不相关的, 满足我们对白化结果的第一个要求 (特征间相关性降低)为了使每个输入特征具有单位方差,我们可以直接使用作为缩放因子来缩放每个特征 。具体地,我们定义白化后的数据 如下:


  绘制出 ,我们得到:

DL四(预处理:主成分分析与白化 Preprocessing PCA and Whitening )_第10张图片

  这些数据现在的协方差矩阵为单位矩阵 。我们说,是数据经过PCA白化后的版本: 中不同的特征之间不相关并且具有单位方差。

  白化与降维相结合如果你想要得到经过白化后的数据,并且比初始输入维数更低,可以仅保留 中前 个成分。当我们把PCA白化和正则化结合起来时(在稍后讨论)中最后的少量成分将总是接近于0,因而舍弃这些成分不会带来很大的问题。

ZCA白化

  最后要说明的是,使数据的协方差矩阵变为单位矩阵 的方式并不唯一。具体地,如果 是任意正交矩阵,即满足 (说它正交不太严格,可以是旋转或反射矩阵), 那么 仍然具有单位协方差。在ZCA白化中,令 。我们定义ZCA白化的结果为:

  绘制 ,得到:

DL四(预处理:主成分分析与白化 Preprocessing PCA and Whitening )_第11张图片

  可以证明,对所有可能的 ,这种旋转使得 尽可能地接近原始输入数据

  当使用 ZCA白化时(不同于 PCA白化),我们通常保留数据的全部 个维度,不尝试去降低它的维数。

2.4 正则化

  实践中需要实现PCA白化或ZCA白化时,有时一些特征值在数值上接近于0,这样在缩放步骤时我们除以将导致除以一个接近0的值;这可能使数据上溢 (赋为大数值)或造成数值不稳定。因而在实践中,我们使用少量的正则化实现这个缩放过程,即在取平方根和倒数之前给特征值加上一个很小的常数

  当在区间上时, 一般取值为

三 实现主成分分析和白化 Implementing PCA/Whitening 

3.1 基本术语

  均值为零 zero-mean

对称半正定矩阵 symmetric positive semi-definite matrix

数值计算上稳定 numerically reliable

降序排列 sorted in decreasing order

奇异值 singular value

奇异向量 singular vector

3.2 Matlab实现

3.2.1 PCA实现

PCA步骤:

  1. 确保数据均值(近似)为零。

    对于自然图像,我们通过减去每个图像块(patch)的均值(近似地)来达到这一目标。Matlab实现如下:

  2. 求解x的协方差矩阵

    Matlab实现如下:

  3. 求解协方差矩阵的特征向量。PCA计算 Σ 的特征向量。你可以使用Matlab eig 函数来计算。但是由于 Σ 是对称半正定的矩阵,用 svd 函数在数值计算上更加稳定。

  那矩阵 U 将包含 Sigma 的特征向量(一个特征向量一列,从主向量开始排序),矩阵S 对角线上的元素将包含对应的特征值(同样降序排列)。矩阵 等于 的转置,可以忽略。

  4. 进行数据映射和降维

3.2.2 白化实现

PCA白化:

ZCA白化:

你可能感兴趣的:(DL四(预处理:主成分分析与白化 Preprocessing PCA and Whitening ))