数据挖掘

数据立方体,最小内存计算

层次聚类

首先介绍聚类中的层次聚类算法。层次法又分为凝聚的层次聚类和分裂的层次聚类。

凝聚的方法:也称自底向上的方法,首先将每个对象作为单独的一个聚类,然后根据性质和规则相继地合并相近的类,直到所有的对象都合并为一个聚类中,或者满足一定的终止条件。经典的层次凝聚算法以AGNES算法为代表,改进的层次凝聚算法主要以BIRCH,CURE,ROCK,CHAMELEON为代表。(后面详细介绍)

分裂的方法:也称自顶向下的方法,正好与凝聚法相反,首先将所有的对象都看作是一个聚类,然后在每一步中,上层类被分裂为下层更小的类,直到每个类只包含一个单独的对象,或者也满足一个终止条件为止。分裂算法将生成与凝聚方法完全相同的类集,只是生成过程的次序完全相反。经典的层次分裂算法以DIANA算法为代表。


那么要把这个图分割成两部分,如上的虚线就是一种切割方式,这个时候可以看到这种切割下消耗的边的权值为3+4=7吧,当然,切割的方式很多种,不同的切割方式自然对应不同的切割边权值,而最大流最小割就是找到一种切割方式使得切割的边的权值之和最小

对称的二元变量和不对称的二元变量之间的区别是什么?


数据挖掘_第1张图片

如果一个样本的属性都是对称性的二元变量?

如果它的两个状态有相同的权重, 那么该二元变量是对称的也就是两个取值 0或 1 没有优先权。例如,属性“性别”就是这样的一个例子,它有两个值:“女性”和“男性”。基于对称二元变量的相似度称为恒定的相似度,即当一些或者全部二元变量编码改变时,计算结果不会发生变化。对恒定的相似度来说,评价两个对象 i和 j 之间相异度的最著名的系数是简单匹配系数,其定义如下:

d(I,j) = (r+s) / (q+r+s+t)                   (8.9   p342 ?)这个是非相似性吧。

如果两个状态的输出不是同样重要,那么该二元变量是不对称的。例如一个疾病检查的肯定和否定的结果。根据惯例,我们将比较重要的输出结果,通常也是出现几率较小的结果编码为 1(例如,HIV阳性),而将另一种结果编码为 0(例如 HIV阴性)。给定两个不对称的二元变量,两个都取值 1 的情况(正匹配)被认为比两个都取值 0 的情况(负匹配)更有意义。因此,这样的二元变量经常被认为好像只有一个状态。基于这样变量的相似度被称为非恒定的相似度。对非恒定的相似度,最著名的评价系数是 Jaccard 系数,在它的计算中,负匹配的数目被认为是不重要的,因此被忽略。

D(I,j) = (r+s) / (q+r+s)         (8.10)

当对称的和非对称的二元变量出现在同一个数据集中,在 8.2.4 节中描述的混合变量方法可以

被应用。

最小割

你可能感兴趣的:(数据挖掘)