吴恩达机器学习系列五(聚类和降维)

吴恩达机器学习系列五

  • 聚类(Clustering)
    • 无监督学习
    • K-均值算法
    • 优化目标
    • 随机初始化
    • 选择聚类数
  • 降维(Dimensionality Reduction)
    • 动机一:数据压缩
    • 动机二:数据可视化
    • 主成分分析问题
    • 主成分分析算法
    • 选择主成分的数量
    • 重建的压缩表示
    • 主成分分析法的应用建议

聚类(Clustering)

无监督学习

在一个典型的监督学习中,我们有一个有标签的训练集,我们的目标是找到能够区分正样本和负样本的决策边界,在这里的监督学习中,我们有一系列标签,我们需要据此拟合一个假设函数。

与此不同的是,在非监督学习中,我们的数据没有附带任何标签,我们拿到的数据就是这样的:

吴恩达机器学习系列五(聚类和降维)_第1张图片

聚类算法是一个无监督学习算法

K-均值算法

K-均值是最普及的聚类算法,算法接受一个未标记的数据集,然后将数据聚类成不同的组

K-均值是一个迭代算法,假设我们想要将数据聚类成n个组,其方法为:

  1. 首先选择 K K K个随机的点,称为聚类中心cluster centroids
  2. 对于数据集中的每一个数据,按照距离 K K K个中心点的距离,将其与距离最近的中心点关联起来,与同一个中心点关联的所有点聚成一类
  3. 计算每一个组的平均值,将该组所关联的中心点移动到平均值的位置(移动聚类中心)
  4. 重新执行2-4,直到聚类中心不再移动

μ 1 , μ 2 , . . . , μ k \mu^{1},\mu^{2},...,\mu^{k} μ1,μ2,...,μk来表示聚类中心,用 c ( 1 ) , c ( 2 ) , . . . , c ( m ) c^{(1)},c^{(2)},...,c^{(m)} c(1),c(2),...,c(m)来存储于第 i i i个实例数据最近的聚类中心的索引,K-均值算法的伪代码如下:

x
Repeat {
    for i = 1 to m
    c(i) := index (form 1 to K) of cluster centroid closest to x(i)
    for k = 1 to K
    μk := average (mean) of points assigned to cluster k
}

算法分为两个步骤,第一个for循环是赋值步骤,即:对于每一个样例 i i i,计算其应该属于的类。第二个for循环是聚类中心的移动,即:对于每一个类K,重新计算该类的聚类中心

K-均值算法也可以很便利地用于将数据分为许多不同组,即使在没有非常明显区分的组群的情况下也可以。下图所示的数据集包含身高和体重两项特征构成的,利用K-均值算法将数据分为三类,用于帮助确定将要生产的T-恤衫的三种尺寸

吴恩达机器学习系列五(聚类和降维)_第2张图片

优化目标

K-均值最小化问题,是要最小化所有的数据点与其所关联的聚类中心点之间的距离之和,因此K-均值的代价函数(又称畸变函数 Distortion function)为:

J ( c ( 1 ) , . . . , c ( m ) , μ 1 , . . . , μ K ) = 1 m ∑ i = 1 m ∣ ∣ X ( i ) − μ c ( i ) ∣ ∣ 2 J(c^{(1)},...,c^{(m)},\mu_{1},...,\mu_{K})=\frac{1}{m}\sum_{i=1}^{m}||X^{(i)}-\mu_{c^{(i)}}||^{2} J(c(1),...,c(m),μ1,...,μK)=m1i=1mX(i)μc(i)2

其中, μ c ( i ) \mu_{c^{(i)}} μc(i)代表与 x ( i ) x^{(i)} x(i)最近的聚类中心点,我们的的优化目标便是找出使得代价函数最小的 c ( 1 ) , c ( 2 ) . . . , c ( m ) c^{(1)},c^{(2)}...,c^{(m)} c(1),c(2)...,c(m) μ 1 , μ 2 . . . , μ K \mu_{1},\mu_{2}...,\mu_{K} μ1,μ2...,μK

回顾刚才给出的: K-均值迭代算法,我们知道,第一个循环是用于减小 c ( i ) c^{(i)} c(i)引起的代价,而第二个循环则是用于减小 μ i \mu_{i} μi引起的代价。迭代的过程一定会是每一次迭代都在减小代价函数,不然便是出现了错误

随机初始化

在运行K-均值算法的之前,我们首先要随机初始化所有的聚类中心点,下面介绍怎样做:

  1. 我们应该选择 K < m K< m K<m,即聚类中心点的个数要小于所有训练集实例的数量
  2. 随机选择 K K K个训练实例,然后令 K K K个聚类中心分别与这 K K K个训练实例相等

K-均值的一个问题在于,它有可能会停留在一个局部最小值处,而这取决于初始化的情况

吴恩达机器学习系列五(聚类和降维)_第3张图片

为了解决这个问题,我们通常需要多次运行K-均值算法,每一次都重新进行随机初始化,最后再比较多次运行K-均值的结果,选择代价函数最小的结果。这种方法在 K K K较小的时候(2–10)还是可行的,但是如果 K K K较大,这么做也可能不会有明显地改善

选择聚类数

没有所谓最好的选择聚类数的方法,通常是需要根据不同的问题,人工进行选择的。选择的时候思考我们运用K-均值算法聚类的动机是什么,然后选择能最好服务于该目的标聚类数

选择聚类数目的方法时,有一个可能会谈及的方法叫作“肘部法则”。关于“肘部法则”,我们所需要做的是改变 K K K值,也就是聚类类别数目的总数。我们用一个聚类来运行K均值聚类方法。这就意味着,所有的数据都会分到一个聚类里,然后计算代价函数或者计算畸变函数 J J J K K K代表聚类数字

吴恩达机器学习系列五(聚类和降维)_第4张图片

我们可能会得到一条类似于这样的曲线。像一个人的肘部。这就是“肘部法则”所做的,让我们来看这样一个图,看起来就好像有一个很清楚的肘在那儿。好像人的手臂,如果你伸出你的胳膊,那么这就是你的肩关节、肘关节、手。这就是“肘部法则”。你会发现这种模式,它的畸变值会迅速下降,从1到2,从2到3之后,你会在3的时候达到一个肘点。在此之后,畸变值就下降的非常慢,看起来就像使用3个聚类来进行聚类是正确的,这是因为那个点是曲线的肘点,畸变值下降得很快, K = 3 K=3 K=3之后就下降得很慢,那么我们就选 K = 3 K=3 K=3。当你应用“肘部法则”的时候,如果你得到了一个像上面这样的图,那么这将是一种用来选择聚类个数的合理方法

降维(Dimensionality Reduction)

动机一:数据压缩

有几个不同的的原因使你可能想要做降维。一是数据压缩

数据压缩不仅允许我们压缩数据,因而使用较少的计算机内存或磁盘空间,但它也让我们加快我们的学习算法

动机二:数据可视化

在许多及其学习问题中,如果我们能将数据可视化,我们便能寻找到一个更好的解决方案,降维可以帮助我们

吴恩达机器学习系列五(聚类和降维)_第5张图片

假使我们有有关于许多不同国家的数据,每一个特征向量都有50个特征(如GDP,人均GDP,平均寿命等)。如果要将这个50维的数据可视化是不可能的。使用降维的方法将其降至2维,我们便可以将其可视化了

吴恩达机器学习系列五(聚类和降维)_第6张图片

这样做的问题在于,降维的算法只负责减少维数,新产生的特征的意义就必须由我们自己去发现了

主成分分析问题

主成分分析(PCA)是最常见的降维算法

PCA中,我们要做的是找到一个方向向量Vector direction),当我们把所有的数据都投射到该向量上时,我们希望投射平均均方误差能尽可能地小。方向向量是一个经过原点的向量,而投射误差是从特征向量向该方向向量作垂线的长度

吴恩达机器学习系列五(聚类和降维)_第7张图片

下面给出主成分分析问题的描述:

问题是要将 n n n维数据降至 k k k维,目标是找到向量 u ( 1 ) , u ( 2 ) , . . . , u ( k ) u^{(1)},u^{(2)},...,u^{(k)} u(1),u(2),...,u(k)使得总的投射误差最小。主成分分析与线性回归的比较:

主成分分析与线性回归是两种不同的算法。主成分分析最小化的是投射误差Projected Error),而线性回归尝试的是最小化预测误差。线性回归的目的是预测结果,而主成分分析不作任何预测

吴恩达机器学习系列五(聚类和降维)_第8张图片

上图中,左边的是线性回归的误差(垂直于横轴投影),右边则是主要成分分析的误差(垂直于红线投影

PCA n n n个特征降维到 k k k个,可以用来进行数据压缩,如果100维的向量最后可以用10维来表示,那么压缩率为90%。同样图像处理领域的KL变换使用PCA做图像压缩。但PCA 要保证降维后,还要保证数据的特性损失最小

PCA技术的一大好处是对数据进行降维的处理。我们可以对新求出的“主元”向量的重要性进行排序,根据需要取前面最重要的部分,将后面的维数省去,可以达到降维从而简化模型或是对数据进行压缩的效果。同时最大程度的保持了原有数据的信息

PCA技术的一个很大的优点是,它是完全无参数限制的。在PCA的计算过程中完全不需要人为的设定参数或是根据任何经验模型对计算进行干预,最后的结果只与数据相关,与用户是独立的

但是,这一点同时也可以看作是缺点。如果用户对观测对象有一定的先验知识,掌握了数据的一些特征,却无法通过参数化等方法对处理过程进行干预,可能会得不到预期的效果,效率也不高

主成分分析算法

PCA 减少 n n n维到 k k k维:

  1. 第一步是均值归一化。我们需要计算出所有特征的均值,然后令 x j = x j − μ j x_{j}=x_{j}-\mu_{j} xj=xjμj 。如果特征是在不同的数量级上,我们还需要将其除以标准差 σ 2 \sigma^{2} σ2

  2. 第二步是计算协方差矩阵covariance matrix ∑ \sum

    ∑ = 1 m ∑ i = 1 n ( x ( i ) ) ( x ( i ) ) T \sum=\frac{1}{m}\sum_{i=1}^{n}(x^{(i)})(x^{(i)})^{T} =m1i=1n(x(i))(x(i))T

  3. 第三步是计算协方差矩阵 ∑ \sum 特征向量eigenvectors):

我们可以利用奇异值分解singular value decomposition)来求解,[U, S, V] = svd(sigma)

吴恩达机器学习系列五(聚类和降维)_第9张图片

吴恩达机器学习系列五(聚类和降维)_第10张图片

对于一个 n × n n{\times}n n×n维度的矩阵,上式中的 U U U是一个具有与数据之间最小投射误差的方向向量构成的矩阵。如果我们希望将数据从 n n n维降至 k k k维,我们只需要从 U U U中选取前 k k k个向量,获得一个 n × k n{\times}k n×k维度的矩阵,我们用 U r e d u c e U_{reduce} Ureduce表示,然后通过如下计算获得要求的新特征向量 z ( i ) z^{(i)} z(i): z ( i ) = U r e d u c e T ∗ x ( i ) z^{(i)}=U_{reduce}^{T}*x^{(i)} z(i)=UreduceTx(i)

其中 x x x n × 1 n{\times}1 n×1维的,因此结果为 k × 1 k{\times}1 k×1维度。注,我们不对方差特征进行处理

选择主成分的数量

主要成分分析是减少投射的平均均方误差

训练集的方差为: 1 m ∑ i = 1 m ∣ ∣ x ( i ) ∣ ∣ 2 \frac{1}{m}\sum_{i=1}^{m}||x^{(i)}||^{2} m1i=1mx(i)2

我们希望在平均均方误差与训练集方差的比例尽可能小的情况下选择尽可能小的 k k k

如果我们希望这个比例小于1%,就意味着原本数据的偏差有99%都保留下来了,如果我们选择保留99%的偏差,便能非常显著地降低模型中特征的维度

我们可以先令 k = 1 k=1 k=1,然后进行主要成分分析,获得$ U_{reduce} 和 和 z , 然 后 计 算 比 例 是 否 小 于 1 ,然后计算比例是否小于1%。如果不是的话再令 1k=2 , 如 此 类 推 , 直 到 找 到 可 以 使 得 比 例 小 于 1 ,如此类推,直到找到可以使得比例小于1%的最小 使1k$值(原因是各个特征之间通常情况存在某种相关性

还有一些更好的方式来选择 k k k,当我们在Octave中调用“svd”函数的时候,我们获得三个参数:[U, S, V] = svd(sigma)

吴恩达机器学习系列五(聚类和降维)_第11张图片

其中的 S S S是一个 n × n n{\times}n n×n的矩阵,只有对角线上有值,而其它单元都是0,我们可以使用这个矩阵来计算平均均方误差与训练集方差的比例

1 m ∑ i = 1 m ∣ ∣ x ( i ) − x a p p r o x ( i ) ∣ ∣ 2 1 m ∑ i = 1 m ∣ ∣ x ( i ) ∣ ∣ 2 = 1 − ∑ i = 1 k S i i ∑ i = 1 m S i i < = 1 % \frac{\frac{1}{m}\sum_{i=1}^{m}||x^{(i)}-x_{approx}^{(i)}||^{2}}{\frac{1}{m}\sum_{i=1}^{m}||x^{(i)}||^{2}}=1-\frac{\sum_{i=1}^{k}S_{ii}}{\sum_{i=1}^{m}S_{ii}}<=1\% m1i=1mx(i)2m1i=1mx(i)xapprox(i)2=1i=1mSiii=1kSii<=1%

也就是: ∑ i = 1 k S i i ∑ i = 1 m S i i ≥ 0.99 \frac{\sum_{i=1}^{k}S_{ii}}{\sum_{i=1}^{m}S_{ii}}{\ge}0.99 i=1mSiii=1kSii0.99

在压缩过数据后,我们可以采用如下方法来近似地获得原有的特征: x a p p r o x ( i ) = U r e d u c e z ( i ) x_{approx}^{(i)}=U_{reduce}z^{(i)} xapprox(i)=Ureducez(i)

重建的压缩表示

在以前的视频中,我谈论PCA作为压缩算法。在那里你可能需要把1000维的数据压缩100维特征,或具有三维数据压缩到一二维表示。所以,如果这是一个压缩算法,应该能回到这个压缩表示,回到你原有的高维数据的一种近似

所以,给定的 z ( i ) z^{(i)} z(i),这可能100维,怎么回到你原来的表示 x ( i ) x^{(i)} x(i),这可能是1000维的数组?

吴恩达机器学习系列五(聚类和降维)_第12张图片

PCA算法,我们可能有一个这样的样本。如图中样本 x ( 1 ) , x ( 2 ) x^{(1)},x^{(2)} x(1),x(2),。我们做的是,我们把这些样本投射到图中这个一维平面。然后现在我们需要只使用一个实数,比如 z ( 1 ) z^{(1)} z(1),指定这些点的位置后他们被投射到这一个三维曲面。给定一个点 z ( 1 ) z^{(1)} z(1),我们怎么能回去这个原始的二维空间呢? x x x为2维,z为1维, z = U r e d u c e T ∗ x z=U_{reduce}^{T}*x z=UreduceTx,相反的方程为: x a p p r o x = U r e d u c e ⋅ z x_{approx}=U_{reduce}{\cdot}z xapprox=Ureducez, x a p p r o x ≈ x x_{approx}{\approx}x xapproxx。如图:

吴恩达机器学习系列五(聚类和降维)_第13张图片

如你所知,这是一个漂亮的与原始数据相当相似。所以,这就是你从低维表示 z z z回到未压缩的表示。我们得到的数据的一个之间你的原始数据 x x x,我们也把这个过程称为重建原始数据

当我们认为试图重建从压缩表示 x x x的初始值。所以,给定未标记的数据集,您现在知道如何应用PCA,你的带高维特征 x x x和映射到这的低维表示 z z z。这个视频,希望你现在也知道如何采取这些低维表示 z z z,映射到备份到一个近似你原有的高维数据

主成分分析法的应用建议

假使我们正在针对一张 100×100像素的图片进行某个计算机视觉的机器学习,即总共有10000 个特征。

  1. 第一步是运用主要成分分析将数据压缩至1000个特征
  2. 然后对训练集运行学习算法
  3. 在预测时,采用之前学习而来的 U r e d u c e U_{reduce} Ureduce将输入的特征 x x x转换成特征向量 z z z,然后再进行预测

注:如果我们有交叉验证集合测试集,也采用对训练集学习而来的 U r e d u c e U_{reduce} Ureduce

错误的主要成分分析情况:一个常见错误使用主要成分分析的情况是,将其用于减少过拟合(减少了特征的数量)。这样做非常不好,不如尝试正则化处理。原因在于主要成分分析只是近似地丢弃掉一些特征,它并不考虑任何与结果变量有关的信息,因此可能会丢失非常重要的特征。然而当我们进行正则化处理时,会考虑到结果变量,不会丢掉重要的数据

另一个常见的错误是,默认地将主要成分分析作为学习过程中的一部分,这虽然很多时候有效果,最好还是从所有原始特征开始,只在有必要的时候(算法运行太慢或者占用太多内存)才考虑采用主要成分分析

你可能感兴趣的:(机器学习)