机器学习之无监督学习——聚类

机器学习之无监督学习——聚类

  • 无监督学习
  • 一、基于划分的聚类方法
    • 1、基于划分的方法 简介
      • A、概念
      • B、分组
      • C、分组与样本 对应关系
      • D、硬聚类 与 软聚类
  • 二、基于层次的聚类方法
    • 1、基于层次的聚类方法 概念 :
    • 2、基于层次的聚类方法 :
      • A、聚合层次聚类 ( 叶子节点到根节点 )
        • 聚合层次聚类 图示
        • 切割点说明
      • B、划分层次聚类 ( 根节点到叶子节点 )
        • 划分层次聚类 图示
        • 切割点说明
      • 基于层次的聚类方法 切割点选取
    • 3、算法性能
  • 三、基于密度的方法
    • 1 . 基于距离聚类的缺陷 :
    • 2 . 基于密度的聚类方法
    • 3 . 基于密度的聚类方法 算法优点

无监督学习

在无监督学习中,数据是无标签的。由于大多数真实世界的数据都没有标签,这些算法特别有用。无监督学习分为聚类和降维。聚类用于根据属性和行为对象进行分组。这与分类不同,因为这些组不是你提供的。聚类的一个例子是将一个组划分成不同的子组(例如,基于年龄和婚姻状况),然后应用到有针对性的营销方案中。降维通过找到共同点来减少数据集的变量。大多数大数据可视化使用降维来识别趋势和规则。

一、基于划分的聚类方法

1、基于划分的方法 简介

基于划分的方法 , 又叫基于距离的方法 , 基于相似度的方法 ;

A、概念

给定 n 个数据样本 , 使用划分方法 , 将数据构建成 k 个划分 ( k ≤ n ) , 每个划分代表一个聚类 ;

B、分组

将数据集 分成 k 组 , 每个分组至少要有一个样本 ;

C、分组与样本 对应关系

每个分组有1 个或多个样本对象 ( 1 对多 ) , 每个对象同时只能在1 个分组中 ( 1 对 1 ) ;

D、硬聚类 与 软聚类

每个数据对象只能属于一个组 , 这种分组称为硬聚类 ; 软聚类每个对象可以属于不同的组 ;

二、基于层次的聚类方法

1、基于层次的聚类方法 概念 :

将数据集样本对象排列成树结构 , 称为聚类树 , 在指定的层次(步骤)上切割数据集样本 , 切割后时刻的聚类分组就是聚类算法的聚类结果 ;

2、基于层次的聚类方法 :

一棵树可以从叶子节点到根节点 , 也可以从根节点到叶子节点 , 基于这两种顺序 , 衍生出两种方法分支 , 分别是聚合层次聚类 , 划分层次聚类 ;

A、聚合层次聚类 ( 叶子节点到根节点 )

开始时 , 每个样本对象自己就是一个聚类 ,称为原子聚类 , 然后根据这些样本之间的 相似性 , 将这些样本对象(原子聚类) 进行合并 ;

常用的聚类算法 : 大多数的基于层次聚类的方法 , 都是聚合层次聚类类型的 ; 这些方法从叶子节点到根节点 , 逐步合并的原理相同 ; 区别只是聚类间的相似性计算方式不同 ;

聚合层次聚类 图示

机器学习之无监督学习——聚类_第1张图片① 初始状态 : 最左侧五个数据对象 , 每个都是一个聚类 ;

② 第一步 : 分析相似度 , 发现 a, b相似度很高 , 将 { a , b } 分到一个聚类中 ;

③ 第二步 : 分析相似度 , 发现 d,e 相似度很高 , 将 {d,e} 分到一个聚类中 ;

④ 第三步 : 分析相似度 , 发现c与d,e相似度很高 , 将c 数据放入 {d,e} 聚类中 , 组成 {c,d,e} 聚类 ;

⑤ 第四步 : 分析相似度 , 此时要求的相似度很低就可以将不同的样本进行聚类 , 将前几步生成的两个聚类 , 合并成一个聚类 {a,b,c,d,e} ;

切割点说明

实际进行聚类分析时 , 不会将所有的步骤走完 , 这里提供四个切割点 , 聚类算法进行聚类时 , 可以在任何一个切割点停止 , 使用当前的聚类分组当做聚类结果 ;

① 切割点 1 : 在切割点1 停止 , 会得到5 个聚类分组 , {a} ,{b}, {c}, {d} , {e} ;

② 切割点 2 : 在切割点2 停止 , 会得到4 个聚类分组 ,{a,b},{c},{d},{e} ;

③ 切割点3 : 在切割点 3 停止 , 会得到 3 个聚类分组{a,b} , { c } {c}, {d,e} ;

④ 切割点 4 : 在切割点 4 停止 , 会得到 2 个聚类分组 ;{a,b} ,{c,d,e} ;

⑤ 走完整个流程 : 会得到 1 个聚类分组 {a,b,c,d,e} ;

B、划分层次聚类 ( 根节点到叶子节点 )

开始时 , 整个数据集的样本在一个总的聚类中 , 然后根据样本之间的相似性 , 不停的切割 , 直到完成要求的聚类操作 ;

划分层次聚类 图示

机器学习之无监督学习——聚类_第2张图片
① 初始状态 : 最左侧五个数据对象,属于一个聚类 ;

② 第一步 : 分析相似度 , 切割聚类 , 将 {c,d,e} 与{a,b} 划分成两个聚类 ;

③ 第二步 : 分析相似度 , 将{c,d,e} 中的{c} 与 {d,e} 划分成两个聚类 ;

④ 第三步 : 分析相似度 , 将 {d,e} 拆分成{d} 和 {e} 两个聚类 ;

⑤ 第四步 : 分析相似度 , 将{a,b} 拆分成 {a} 和 {b} 两个聚类 , 至此所有的数据对象都划分成了单独的聚类 ;

切割点说明

实际进行聚类分析时 , 不会将所有的步骤走完 , 这里提供四个切割点 , 聚类算法进行聚类时 , 可以在任何一个切割点停止 , 使用当前的聚类分组当做聚类结果 ;

① 切割点1 : 在切割点 1 停止 , 会得到 1 个聚类分组 {a,b,c,d,e} ;

② 切割点 2 : 在切割点2 停止 , 会得到2 个聚类分组 {a,b} , {c,d,e} ;

③ 切割点 3 : 在切割点 3停止 , 会得到3个聚类分组{a,b} ,{c}, {d,e} ;

④ 切割点4 : 在切割点 4 停止 , 会得到 4 个聚类分组 ,{a,b} ,{c}, {d} , {e} ;

⑤ 走完整个流程 : 会得到 5 个聚类分组 , {a} , {b}, {c}, {d} , {e} ;

基于层次的聚类方法 切割点选取

1 . 算法终止条件( 切割点 ) : 用户可以指定聚类操作的算法终止条件 , 即上面图示中的切割点 , 如 :

① 聚类的最低个数 : 聚合层次聚类中 , n 个样本 , 开始有n 个聚类 , 逐步合并 , 聚类个数逐渐减少 , 当聚类个数达到最低值 min , 停止聚类算法 ;

② 聚类最高个数 : 划分层次聚类中 , n 个样本 , 开始有 1 个聚类 , 逐步划分 , 聚类个数逐渐增加 , 当聚类个数达到最大值 max , 停止聚类算法 ;

③ 聚类样本的最低半径 : 聚类的数据样本范围不能无限扩大 , 指定一个阈值 , 只有将该阈值内的样本放入一组 ; 半径指的是所有对象距离其平均点的距离 ;

2 . 切割点回退问题 : 切割点一旦确定 , 便无法回退 ; 这里以聚合层次聚类为例 :

① 处于切割点 4 : 如已经执行到了步骤三 , 此时处于切割点 4 , 聚类分组为 {a,b} , {c,d,e} ;

② 试图回退到切割点 3 : 想要会回退到切割点 3 的状态 , 视图将聚类分组恢复成 {a,b} , {c}, {d,e} ;

③ 无法回退 : 该操作是无法实现的 , 聚类分组一旦合并或分裂 , 此时就无法回退 ;

3、算法性能

基于层次的聚类方法的时间复杂度为 O(N^2) , 如果处理的样本数量较大 , 性能存在瓶颈 ;

三、基于密度的方法

1 . 基于距离聚类的缺陷 :

很多的聚类方法 , 都是 基于样本对象之间的距离 ( 相似度 ) 进行的 , 这种方法对于任意形状的分组 , 就无法识别了 , 如下图左侧的聚类模式 ; 这种情况下可以使用基于密度的方法进行聚类操作 ;

基于距离的方法 , 是基于欧几里得距离函数得来 , 其基本的形状都是球状 , 或凸形状 , 如下图右侧的形状 ; 无法计算出凹形状 , 如下图左侧的形状 ;
机器学习之无监督学习——聚类_第3张图片

2 . 基于密度的聚类方法

相邻的区域内 样本对象 的密度超过某个阈值 , 聚类算法就继续执行 , 如果周围区域密度都很小 , 那么停止聚类方法 ;

① 密度 : 某单位大小区域内的样本对象个数 ;

② 聚类分组要求 : 在聚类分组中 , 每个分组的数据样本密度都 必须达到密度要求的最低阈值 ;

3 . 基于密度的聚类方法 算法优点

① 排除干扰 : 过滤噪音数据 , 即密度很小 , 样本分布稀疏的数据 ;

② 增加聚类模式复杂度 : 聚类算法可以识别任意形状的分布模式 , 如上图左侧的聚类分组模式 ;

你可能感兴趣的:(#,机器学习,机器学习,聚类,算法)