数据可视化——聚类

聚类:在数据中识别相似行的技术
聚类与分类:区别数据有无标度
聚类技术:
K-MEANS,DBSCAN,OPTICS,etc

数据包
library("tidyverse")
library("mlr")
pacman::p_load(mlr3,mlr3cluster,mlr3viz,GGally,mlr3tuning,mlr3learners)
theme_set(theme_bw())

一、K-MEANS

随机选取K个对象作为初始的聚类中心,把每个对象分配给距离它最近的聚类中心,聚类的聚类中心会根据聚类中现有的对象被重新计算,这个过程将不断重复直到满足某个终止条件。

优点:①每次迭代时候点可在聚类间移动 ② 多变量时的计算速度可能比其他算法更快 ③有效率且不容易受到初始值的影响。
缺点:①不能处理不同尺寸,不懂密度的簇 ②由于初始中心点的随机性,每次聚类可能略有区别 ③离群值会有较大干扰(一定要在预处理时剔除掉) ④不能处理非球形簇。

参数:
centers:中心点选择参数,表示聚成几类
iter.max:迭代次数,默认10次
algorithm:算法选择的参数

常见算法:

1、Lloyd 算法:批处理或离线算法。

选择k个中心,在特征空间中随机初始化k个中心,对每行计算其和每个中心之间的距离,将各行分配到最近中心点的簇中,将每个中心移动到其所在簇的平均值处。
重复步骤,直到没有行改变簇或到最大迭代次数。

2、MacQueen 算法:增量或在线算法。

选择k个中心,在特征空间中随机初始化k个中心,将各行按距离分配到最近中心点的簇中,将每个中心移动到其所在簇的平均值处。
对每行,与各中心计算距离并分配到最近中心点的簇中,若有行换簇,则更新中心,每行处理完后,更新所有中心点。
若没有行改变簇则停止,否则重复步骤。

3、Hartigan-Wong 算法。

选择k个中心,在特征空间中随机初始化k个中心,将各行按距离分配到最近中心点的簇中,将每个中心移动到其所在簇的平均值处。
对每行,计算其在每簇时的SSE,并分到到SSE最小的簇中,若有行换簇,则更新中心。
若没有行改变簇则停止,否则重复步骤。

【例题】
data(GvHD, package = "mclust")
gvhd1 <- as_tibble(GvHD.control)
gvhd1scale <- gvhd1 %>% scale()
ggpairs(GvHD.control,
        upper = list(continuous = "density"),
        lower = list(continuous = wrap("points", size = 0.4)),
        diag = list(continuous = "densityDiag"))

选择K

 gvhdTask <- makeClusterTask(data = as.data.frame(gvhd1scale))
listLearners("cluster")$class
kMeans <- makeLearner("cluster.kmeans", par.vals = list(iter.max = 100, nstart = 10))
 kMeansPar <- makeParamSet(
  makeDiscreteParam("centers", values = 3:8),
  makeDiscreteParam("algorithm", values = c("Hartigan-Wong", "Lloyd", "MacQueen")))
gridSearch <- makeTuneControlGrid()
kFold <- makeResampleDesc("CV", iters = 10)
 tunedK <- tuneParams(kMeans, task = gvhdTask,
                     resampling = kFold,
                     par.set = kMeansPar,
                     control = gridSearch,
                     measures = list(db, G1))

比较算法

kMeansTuningData$data
longTuningData <- pivot_longer(kMeansTuningData$data,
                               c(3,4,6), names_to = "Metric", values_to = "Value")
ggplot(longTuningData, aes(centers, Value, col = algorithm)) +
  facet_wrap(~ Metric, scales = "free_y") +
  geom_line()

训练模型

tunedKMeans <- setHyperPars(kMeans, par.vals = tunedK $ x)
tunedKMeansModel <- train(tunedKMeans, gvhdTask)
kMeansModelData <- getLearnerModel(tunedKMeansModel)
kMeansModelData$iter
 gvhd1 <- gvhd1 %>% mutate(
  kMeansCluster = as.factor(kMeansModelData$cluster))
ggpairs(gvhd1, aes(col = kMeansCluster),
        upper = list(continuous = "density"))

预测新数据

newCell <- tibble(CD4 = 510, CD8b = 26, CD3 = 500, CD8 = 122) %>% 
  scale(center = attr(gvhd1scale,"scaled:center"),
        scale = attr(gvhd1scale, "scaled:scale")) %>%  
  as_tibble()
predict(tunedKMeansModel, newdata = newCell)

https://blog.csdn.net/hfutxiaoguozhi/article/details/78828047

二、DBSCAN

数据包
library("tidyverse")
library("mlr")
library("GGally")
library("dbscan")
library("fpc")

【例题】

数据及超参数范围
data(banknote, package = "mclust")
bnTib <- select(banknote, -Status) %>% as_tibble()
bnScaled <- bnTib %>% scale()
ggpairs(bnTib, upper = list(continuous = "density"))

kNNdistplot(bnScaled, k = 5)
abline(h = c(1.2, 2.0))
dbsParSpace <- expand.grid(eps = seq(1.2, 2.0, 0.1), minPts = 1:9)
bnDbs <- pmap(dbsParSpace, dbscan, x = bnScaled)
bnDbs[[11]]

三、OPTICS

考试重点:
1、可视化:对数据变形
2、降维
3、聚类(调参)

你可能感兴趣的:(数据可视化——聚类)