聚类:在数据中识别相似行的技术
聚类与分类:区别数据有无标度
聚类技术:
K-MEANS,DBSCAN,OPTICS,etc
数据包
library("tidyverse")
library("mlr")
pacman::p_load(mlr3,mlr3cluster,mlr3viz,GGally,mlr3tuning,mlr3learners)
theme_set(theme_bw())
一、K-MEANS
随机选取K个对象作为初始的聚类中心,把每个对象分配给距离它最近的聚类中心,聚类的聚类中心会根据聚类中现有的对象被重新计算,这个过程将不断重复直到满足某个终止条件。
优点:①每次迭代时候点可在聚类间移动 ② 多变量时的计算速度可能比其他算法更快 ③有效率且不容易受到初始值的影响。
缺点:①不能处理不同尺寸,不懂密度的簇 ②由于初始中心点的随机性,每次聚类可能略有区别 ③离群值会有较大干扰(一定要在预处理时剔除掉) ④不能处理非球形簇。
参数:
centers:中心点选择参数,表示聚成几类
iter.max:迭代次数,默认10次
algorithm:算法选择的参数
常见算法:
1、Lloyd 算法:批处理或离线算法。
选择k个中心,在特征空间中随机初始化k个中心,对每行计算其和每个中心之间的距离,将各行分配到最近中心点的簇中,将每个中心移动到其所在簇的平均值处。
重复步骤,直到没有行改变簇或到最大迭代次数。
2、MacQueen 算法:增量或在线算法。
选择k个中心,在特征空间中随机初始化k个中心,将各行按距离分配到最近中心点的簇中,将每个中心移动到其所在簇的平均值处。
对每行,与各中心计算距离并分配到最近中心点的簇中,若有行换簇,则更新中心,每行处理完后,更新所有中心点。
若没有行改变簇则停止,否则重复步骤。
3、Hartigan-Wong 算法。
选择k个中心,在特征空间中随机初始化k个中心,将各行按距离分配到最近中心点的簇中,将每个中心移动到其所在簇的平均值处。
对每行,计算其在每簇时的SSE,并分到到SSE最小的簇中,若有行换簇,则更新中心。
若没有行改变簇则停止,否则重复步骤。
【例题】
data(GvHD, package = "mclust")
gvhd1 <- as_tibble(GvHD.control)
gvhd1scale <- gvhd1 %>% scale()
ggpairs(GvHD.control,
upper = list(continuous = "density"),
lower = list(continuous = wrap("points", size = 0.4)),
diag = list(continuous = "densityDiag"))
选择K
gvhdTask <- makeClusterTask(data = as.data.frame(gvhd1scale))
listLearners("cluster")$class
kMeans <- makeLearner("cluster.kmeans", par.vals = list(iter.max = 100, nstart = 10))
kMeansPar <- makeParamSet(
makeDiscreteParam("centers", values = 3:8),
makeDiscreteParam("algorithm", values = c("Hartigan-Wong", "Lloyd", "MacQueen")))
gridSearch <- makeTuneControlGrid()
kFold <- makeResampleDesc("CV", iters = 10)
tunedK <- tuneParams(kMeans, task = gvhdTask,
resampling = kFold,
par.set = kMeansPar,
control = gridSearch,
measures = list(db, G1))
比较算法
kMeansTuningData$data
longTuningData <- pivot_longer(kMeansTuningData$data,
c(3,4,6), names_to = "Metric", values_to = "Value")
ggplot(longTuningData, aes(centers, Value, col = algorithm)) +
facet_wrap(~ Metric, scales = "free_y") +
geom_line()
训练模型
tunedKMeans <- setHyperPars(kMeans, par.vals = tunedK $ x)
tunedKMeansModel <- train(tunedKMeans, gvhdTask)
kMeansModelData <- getLearnerModel(tunedKMeansModel)
kMeansModelData$iter
gvhd1 <- gvhd1 %>% mutate(
kMeansCluster = as.factor(kMeansModelData$cluster))
ggpairs(gvhd1, aes(col = kMeansCluster),
upper = list(continuous = "density"))
预测新数据
newCell <- tibble(CD4 = 510, CD8b = 26, CD3 = 500, CD8 = 122) %>%
scale(center = attr(gvhd1scale,"scaled:center"),
scale = attr(gvhd1scale, "scaled:scale")) %>%
as_tibble()
predict(tunedKMeansModel, newdata = newCell)
https://blog.csdn.net/hfutxiaoguozhi/article/details/78828047
二、DBSCAN
数据包
library("tidyverse")
library("mlr")
library("GGally")
library("dbscan")
library("fpc")
【例题】
数据及超参数范围
data(banknote, package = "mclust")
bnTib <- select(banknote, -Status) %>% as_tibble()
bnScaled <- bnTib %>% scale()
ggpairs(bnTib, upper = list(continuous = "density"))
kNNdistplot(bnScaled, k = 5)
abline(h = c(1.2, 2.0))
dbsParSpace <- expand.grid(eps = seq(1.2, 2.0, 0.1), minPts = 1:9)
bnDbs <- pmap(dbsParSpace, dbscan, x = bnScaled)
bnDbs[[11]]
三、OPTICS
考试重点:
1、可视化:对数据变形
2、降维
3、聚类(调参)