吴恩达机器学习----降维

吴恩达机器学习教程学习笔记 (12/16)

吴恩达教授(Andrew Ng)的机器学习可以说是一门非常重视ML理论基础的课程,做做一些简单的笔记加上个人的理解。本笔记根据吴恩达的课程顺序,以每章内容作为节点进行记录。(共18章,其中第3章“线性代数回顾”与第5章“Octava教程”的笔记就不总结了)

第十四章 降维(Dimensionality Reduction)

1、动机一:数据压缩

例子
假设我们未知两个的特征:x_1:长度:用厘米表示;x_2:是用英寸表示同一物体的长度。
所以,这给了我们高度冗余表示,也许不是两个分开的特征x_1和x_2,这两个基本的长度度量,也许我们想要做的是减少数据到一维,只有一个数测量这个长度。这个例子似乎有点做作,这里厘米英寸的例子实际上不是那么不切实际的,两者并没有什么不同。
将数据从二维降至一维: 假使我们要采用两种不同的仪器来测量一些东西的尺寸,其中一个仪器测量结果的单位是英寸,另一个仪器测量的结果是厘米,我们希望将测量的结果作为我们机器学习的特征。现在的问题的是,两种仪器对同一个东西测量的结果不完全相等(由于误差、精度等),而将两者都作为特征有些重复,因而,我们希望将这个二维的数据降至一维。
从这件事情我看到的东西发生在工业上的事。如果你有几百个或成千上万的特征,它是它这往往容易失去你需要的特征。有时可能有几个不同的工程团队,也许一个工程队给你二百个特征,第二工程队给你另外三百个的特征,第三工程队给你五百个特征,一千多个特征都在一起,它实际上会变得非常困难,去跟踪你知道的那些特征,你从那些工程队得到的。其实不想有高度冗余的特征一样。
吴恩达机器学习----降维_第1张图片
例子
将数据从三维降至二维: 这个例子中我们要将一个三维的特征向量降至一个二维的特征向量。过程是与上面类似的,我们将三维向量投射到一个二维的平面上,强迫使得所有的数据都在同一个平面上,降至二维的特征向量。
吴恩达机器学习----降维_第2张图片
这样的处理过程可以被用于把任何维度的数据降到任何想要的维度,例如将1000维的特征降至100维。

2、动机二:数据可视化

例子
假使我们有有关于许多不同国家的数据,每一个特征向量都有50个特征(如GDP,人均GDP,平均寿命等)。如果要将这个50维的数据可视化是不可能的。使用降维的方法将其降至2维,我们便可以将其可视化了。
吴恩达机器学习----降维_第3张图片
吴恩达机器学习----降维_第4张图片

3、主成分分析问题(PCA)

在PCA中,我们要做的是找到一个方向向量(Vector direction),当我们把所有的数据都投射到该向量上时,我们希望投射平均均方误差能尽可能地小。方向向量是一个经过原点的向量,而投射误差是从特征向量向该方向向量作垂线的长度。
吴恩达机器学习----降维_第5张图片
上图中,左边的是线性回归的误差(垂直于横轴投影),右边则是主要成分分析的误差(垂直于红线投影)。
PCA将n个特征降维到k个,可以用来进行数据压缩,如果100维的向量最后可以用10维来表示,那么压缩率为90%。同样图像处理领域的KL变换使用PCA做图像压缩。但PCA 要保证降维后,还要保证数据的特性损失最小。
PCA技术的一大好处是对数据进行降维的处理。我们可以对新求出的“主元”向量的重要性进行排序,根据需要取前面最重要的部分,将后面的维数省去,可以达到降维从而简化模型或是对数据进行压缩的效果。同时最大程度的保持了原有数据的信息。
PCA技术的一个很大的优点是,它是完全无参数限制的。在PCA的计算过程中完全不需要人为的设定参数或是根据任何经验模型对计算进行干预,最后的结果只与数据相关,与用户是独立的。

4、主成分分析算法

PCA 减少n维到k维:
第一步是均值归一化。我们需要计算出所有特征的均值,然后令 xj=xjj。如果特征是在不同的数量级上,我们还需要将其除以标准差 σ2
第二步是计算协方差矩阵(covariance matrix)Σ: ∑=1/m ∑i=1n(x(i)) (x(i))T
第三步是计算协方差矩阵Σ的特征向量(eigenvectors):我们可以利用奇异值分解(singular value decomposition)来求解,[U, S, V]= svd(sigma)。
吴恩达机器学习----降维_第6张图片 s i g m a = 1 / m ∑ i = 1 n ( x ( i ) ) ( x ( i ) ) T sigma=1/m ∑_{i=1}^n(x^{(i)}) (x^{(i)})^T sigma=1/mi=1n(x(i))(x(i))T吴恩达机器学习----降维_第7张图片
对于一个 n×n维度的矩阵,上式中的U是一个具有与数据之间最小投射误差的方向向量构成的矩阵。如果我们希望将数据从n维降至k维,我们只需要从U中选取前k个向量,获得一个n×k维度的矩阵,我们用Ureduce表示,然后通过如下计算获得要求的新特征向量z(i): z(i)=UreduceT*x(i)
其中x是n×1维的,因此结果为k×1维度。注,我们不对方差特征进行处理。

5、选择主成分的数量

主要成分分析是减少投射的平均均方误差:
训练集的方差为:1/m ∑i=1m∥x(i)2
我们希望在平均均方误差与训练集方差的比例尽可能小的情况下选择尽可能小的k值。
如果我们希望这个比例小于1%,就意味着原本数据的偏差有99%都保留下来了,如果我们选择保留95%的偏差,便能非常显著地降低模型中特征的维度了。
我们可以先令k=1,然后进行主要成分分析,获得U_reduce和z,然后计算比例是否小于1%。如果不是的话再令k=2,如此类推,直到找到可以使得比例小于1%的最小k 值(原因是各个特征之间通常情况存在某种相关性)。
还有一些更好的方式来选择k,当我们在Octave中调用“svd”函数的时候,我们获得三个参数:[U, S, V] = svd(sigma)。
吴恩达机器学习----降维_第8张图片
其中的S是一个n×n的矩阵,只有对角线上有值,而其它单元都是0,我们可以使用这个矩阵来计算平均均方误差与训练集方差的比例:
吴恩达机器学习----降维_第9张图片
感谢黄海广博士团队的翻译和笔记
END

你可能感兴趣的:(吴恩达机器学习笔记,吴恩达,数据降维,主成分分析算法,PCA)