吴恩达机器学习入门笔记12/13-聚类与降维

12 聚类-无监督学习算法之一

聚类试图将数据集中的无标记样本划分为若干个通常不相交的子集,每个子集称为一个簇(cluster),每个簇可能对应于一些潜在的概念

  • 聚类算法的两个基本问题:性能度量和距离计算

12.1 性能度量

原则:同一簇样本尽可能相似,不同簇样本尽可能不同,即簇内相似度高 簇间相似度低

  • 将聚类结果与某个参考模型进行比较,称为外部指标
  • 直接考察聚类结果不利用任何参考模型,称为内部指标

12.1.1 外部指标

  • Jaccard系数
  • FM指数
  • Rand指数

12.1.2 内部指标

  • DB指数
  • Dunn指 数

12.2 距离计算

闵可夫斯基距离
\[ dist_{mk}(x_i,x_j)=(\sum^{n}_{u=1}|x_{iu}-x_{ju}|^p)^{\frac{1}{p}}\tag{12.1} \]
p=2:为欧氏距离

p=3:为曼哈顿距离

p趋于无限时,为切比雪夫距离

12.3 原型聚类

12.3.1 K-means算法

算法原理

输入:想要的簇的个数K

​ 无标记的样本({x1,x2...xm}

迭代:预先设置K个点作为K个簇中心

​ 计算m个样本分别与K个中心点的距离,其中最近的距离设定同类\(c_i=\underset{k}{\text{min}}||x^{(i)}-\mu_k||^2\)

​ m个样本分类完成后,对各类求均值作为新的簇中心,依据新的中心重新对m个样本分类

​ 当计算的中心位置与上一次相同时停止迭代

  • 如果一个簇不含点,那么移除这个簇
目标函数

\[ J(c^{(1)},...,c^{(m)},\mu_1,...,\mu_k)=\underset{c,\mu}{\text{min}}\frac{1}{m}\sum^{m}_{i=1}||x^{(i)}-\mu_{c^{(i)}}||^2\tag{12.2} \]

随机初始化
  • 设定簇的个数小于样本数
  • 设定K个样本点作为初始簇的中心点
  • 聚类数K小的时候随机初始化影响较大
防止落到局部最优

可多次随机初始化,运行K-means算法多次。取目标函数最小的一次作为最优分类

选取K的方法

由目的确定

肘部法则

13 降维-无监督学习之二

13.1 k近邻学习

常用的监督学习方法,给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于k个邻居进行预测,分类任务可用投票法,回归任务可用平均法

13.2 低维嵌入

高维属性导致数据样本稀疏,距离计算困难,需要通过某种数学变换将原始高维属性空间转变为一个低维子空间

13.3 主成分分析(PCA)-降维算法

13.3.1 直观原理

吴恩达机器学习入门笔记12/13-聚类与降维_第1张图片

PCA可寻找一个超平面使样本的投影距离之和最小(蓝色线段)

13.3.2 线性回归与PCA的不同

吴恩达机器学习入门笔记12/13-聚类与降维_第2张图片

PCA:最小化正交距离

13.3.3 算法步骤

  1. 数据预处理:均值标准化 ,即让每个样本减去均值

    ​ 特征缩放:若不同特征规模不同,在均值标准化后除以特征的标准偏差

  2. 计算降维的新坐标z吴恩达机器学习入门笔记12/13-聚类与降维_第3张图片

    U即为特征向量矩阵,代表了样本特征的主成分;S为对角矩阵

  3. 更新K值,确保降维后方差保留绝大部分原方差吴恩达机器学习入门笔记12/13-聚类与降维_第4张图片其中,\(x_{approx}\)是在高维空间中映射到低维平面上的近似点,$x_{approx}=U_{reduce} \cdot z $

    需要找到满足不等式最小的k

13.3.4 压缩重现

吴恩达机器学习入门笔记12/13-聚类与降维_第5张图片

13.3.5 应用PCA实现计算加速

  • \(U_{reduce}\)是PCA算法计算出的参数,只能被用于训练集实现\(x\rightarrow z\)的降维,不用于交叉验证集
  • 完成初始样本的降维后,即确定了\(U_{reduce}\)后,将降维后的样本添加上原有的标签作为机器学习的输入。当预测时需要先将新样本送入PCA进行降维处理,再进行机器学习,可实现算法加速
  • PCA实现降维不是一个防止过拟合的好方法,应通过增大正则化参数\(\lambda\)来防止过拟合
  • 首先考虑不使用PCA

你可能感兴趣的:(吴恩达机器学习入门笔记12/13-聚类与降维)