降维(Dimensionality Reduction)

1.动机一:数据可视化

将数据可视化,我们便能寻找到一个更好的解决方案,降维可以帮助我们。
降维(Dimensionality Reduction)_第1张图片
假使我们有有关于许多不同国家的数据,每一个特征向量都有 50 个特征(如 GDP,人均 GDP,平均寿命等)。如果要将这个 50 维的数据可视化是不可能的。使用降维的方法将其降至 2 维,我们便可以将其可视化了。
降维的算法只负责减少维数,将多维数据降成低维,然后再进行数据处理。

2.动机二:数据压缩

数据压缩不仅允许我们压缩数据,因而使用较少的计算机内存或磁盘空间,但它也让我们加快我们的学习算法。
将数据从二维降至一维: 假使我们要采用两种不同的仪器来测量一些东西的尺寸,其中一个仪器测量结果的单位是英寸,另一个仪器测量的结果是厘米,我们希望将测量的结果作为我们机器学习的特征。现在的问题的是,两种仪器对同一个东西测量的结果不完全相等
由于误差、精度等),而将两者都作为特征有些重复,因而,我们希望将这个二维的数据降至一维。
降维(Dimensionality Reduction)_第2张图片

3.主成分分析问题

主成分分析(PCA)是最常见的降维算法。
在 PCA 中,我们要做的是找到一个方向向量(Vector direction),当我们把所有的数据都投射到该向量上时,我们希望投射平均均方误差能尽可能地小。方向向量是一个经过原点的向量,而投射误差是从特征向量向该方向向量作垂线的长度。
降维(Dimensionality Reduction)_第3张图片
下面给出主成分分析问题的描述:
问题是要将维数据降至维,目标是找到向量(1) ,(2) ,…,()使得总的投射误差最小。
主成分分析与线性回顾的比较:
主成分分析与线性回归是两种不同的算法。主成分分析最小化的是投射误差(Projected Error),而线性回归尝试的是最小化预测误差。线性回归的目的是预测结果,而主成分分析不作任何预测。
降维(Dimensionality Reduction)_第4张图片
上图中,左边的是线性回归的误差(垂直于横轴投影),右边则是主要成分分析的误差(垂直于红线投影)。
PCA 将个特征降维到个,可以用来进行数据压缩,如果 100 维的向量最后可以用 10维来表示,那么压缩率为 90%。同样图像处理领域的 KL 变换使用 PCA 做图像压缩。但 PCA要保证降维后,还要保证数据的特性损失最小。
PCA 技术的一大好处是对数据进行降维的处理。我们可以对新求出的“主元”向量的重要性进行排序,根据需要取前面最重要的部分,将后面的维数省去,可以达到降维从而简化模型或是对数据进行压缩的效果。同时最大程度的保持了原有数据的信息。
PCA 技术的一个很大的优点是,它是完全无参数限制的。在 PCA 的计算过程中完全不需要人为的设定参数或是根据任何经验模型对计算进行干预,最后的结果只与数据相关,与用户是独立的。
但是,这一点同时也可以看作是缺点。如果用户对观测对象有一定的先验知识,掌握了数据的一些特征,却无法通过参数化等方法对处理过程进行干预,可能会得不到预期的效果,效率也不高。

4.主成分分析算法

PCA 减少维到维:
降维(Dimensionality Reduction)_第5张图片
对于一个 × 维度的矩阵,上式中的是一个具有与数据之间最小投射误差的方向向量构成的矩阵。如果我们希望将数据从维降至维,我们只需要从中选取前个向量,获得一个 × 维度的矩阵,我们用表示,然后通过如下计算获得要求的新特征向量():
在这里插入图片描述

5.选择主成分的数量

主要成分分析是减少投射的平均均方误差:
在这里插入图片描述
在平均均方误差与训练集方差的比例尽可能小的情况下选择尽可能小的值。
如果我们希望这个比例小于 1%,就意味着原本数据的偏差有 99%都保留下来了,如果我们选择保留 95%的偏差,便能非常显著地降低模型中特征的维度了。我们可以先令 = 1,然后进行主要成分分析,获得和,然后计算比例是否小于1%。如果不是的话再令 = 2,如此类推,直到找到可以使得比例小于 1%的最小 值(原因是各个特征之间通常情况存在某种相关性)。

6.重建的压缩表示

低维变多维。
PCA 作为压缩算法。在那里你可能需要把 1000 维的数据压缩100 维特征,或具有三维数据压缩到一二维表示。所以,如果这是一个压缩算法,应该能回到这个压缩表示,回到你原有的高维数据的一种近似。所以,给定的(),这可能 100 维,怎么回到你原来的表示(),这可能是 1000 维的数组?
降维(Dimensionality Reduction)_第6张图片
PCA 算法,我们可能有一个这样的样本。如图中样本(1)
,(2)。我们做的是,我们把这些样本投射到图中这个一维平面。然后现在我们需要只使用一个实数,比如(1),指定这些
点的位置后他们被投射到这一个三维曲面。给定一个点(1),我们怎么能回去这个原始的二维空间呢?
降维(Dimensionality Reduction)_第7张图片
降维(Dimensionality Reduction)_第8张图片
这是一个漂亮的与原始数据相当相似。所以,这就是从低维表示回到未压缩的表示。我们得到的数据的是原始数据 ,把这个过程称为重建原始数据。
当我们认为试图重建从压缩表示 的初始值。所以,给定未标记的数据集,现在知道如何应用 PCA,带高维特征和映射到这的低维表示。

7.主成分分析法的应用建议

假使正在针对一张 100×100 像素的图片进行某个计算机视觉的机器学习,即总共有 10000 个特征。

  1. 第一步是运用主要成分分析将数据压缩至 1000 个特征
  2. 然后对训练集运行学习算法。
  3. 在预测时,采用之前学习而来的将输入的特征转换成特征向量,然后再进
    行预测
    注:如果我们有交叉验证集合测试集,也采用对训练集学习而来的。
    错误的主要成分分析情况:一个常见错误使用主要成分分析的情况是,将其用于减少过拟合(减少了特征的数量)。这样做非常不好,不如尝试正则化处理。原因在于主要成分分
    析只是近似地丢弃掉一些特征,它并不考虑任何与结果变量有关的信息,因此可能会丢失非常重要的特征。然而当我们进行正则化处理时,会考虑到结果变量,不会丢掉重要的数据。
    另一个常见的错误是,默认地将主要成分分析作为学习过程中的一部分,这虽然很多时候有效果,最好还是从所有原始特征开始,只在有必要的时候(算法运行太慢或者占用太多
    内存)才考虑采用主要成分分析。

你可能感兴趣的:(信息可视化,人工智能,机器学习)