Bipartite Graph Based Multi-View Clustering
基于二部图的多视图聚类
对于基于图的多视图聚类,一个关键问题是通过两阶段学习方案捕获共识聚类结构。具体来说,首先学习多个视图的相似性图矩阵,然后将它们融合为统一的高级图矩阵。大多数当前的方法独立地学习每个视图的数据点之间的成对相似性,这在单个视图中被广泛使用。然而,包含在多个视图中的共识信息被忽略,并且所涉及的偏差导致不期望的统一图矩阵。为此,我们提出了一种基于二分图的多视图聚类(BIGMC)方法。共识信息可以由不同视图的少量代表性统一锚点表示。在数据点和锚点之间构建二分图。BIGMC构建所有视图的二分图矩阵,并将其融合以生成统一的二分矩阵。统一的二分图矩阵进而改进每个视图的二分图形相似性矩阵并更新锚点。最终的统一图矩阵直接形成最终的簇。在BIGMC中,为每个视图添加自适应权重以避免异常视图。对统一矩阵的拉普拉斯矩阵施加低秩约束,以构造多分量统一二分图。
基于图的多视图聚类方法旨在通过组合所有视图的图矩阵,以统一的图矩阵的形式对数据对象之间的相似关系进行编码。通过在统一图矩阵上使用附加的聚类方法来形成最终聚类。聚类性能取决于每个视图图的质量和融合策略。
为了解决这些问题,提出了BIGMC,总体架构图:
本文贡献:
X ∈ R d × n X \in R^{d \times n} X∈Rd×n
l p l_p lp范式定义为: ∣ ∣ x ∣ ∣ p = ( ∑ i = 1 d ∣ x i ∣ p ) 1 / p ||x||_p = (\sum_{i=1}^d |x_i|^p)^{1/p} ∣∣x∣∣p=(∑i=1d∣xi∣p)1/p
对于有m个视图的多视图数据集,我们表示 X 1 , X 2 , … , X m X^1,X^2,\dots,X^m X1,X2,…,Xm作为数据矩阵 X v = [ x 1 v , … , x n v ] R d v × n X^v = [x_1^v,\dots,x_n^v] \ R^{d_v \times n} Xv=[x1v,…,xnv] Rdv×n作为具有 d v d_v dv维数和n个数据点的第v个视图数据。
对于 X v X^v Xv,设 x j v x^v_j xjv是第j个列向量, X i j v X^v_{ij} Xijv是第(i,j)个条目 A v = [ a 1 v , … , a t v ] ∈ R d v × t A^v = [a_1^v,\dots,a_t^v] \in R^{d_v \times t} Av=[a1v,…,atv]∈Rdv×t
值得注意的是,所有视图数据都有t个共识锚点,其中每个锚点都是相应子聚类的质心。当t = c时,每个集群只有一个锚点
S v ∈ R n × t S^v \in R^{n \times t} Sv∈Rn×t
在这里,我们通过在固定锚集时为每个视图构建相似度矩阵来独立学习视图图。原因是每个图只通过锚点集彼此关联。
然后,我们生成一个统一的二部图矩阵,并利用它自适应更新 { A v } v = 1 m \{ A^v \}_{v=1}^m {Av}v=1m直到收敛。
我们提出的BIGMC可以联合学习所有视图的图,构造一个统一的二部图,并自动确定每个视图的重要性。
具体来说,通过 { S v } v = 1 m \{ S^v \}_{v=1}^m {Sv}v=1m的统一矩阵 U ∈ R n × t U \in R^{n \times t} U∈Rn×t可以得到统一的二部图。
权重公式:
来源:https://blog.csdn.net/qq_45178685/article/details/127976977
结合问题1 2 来联合学习 S v U S^v \quad U SvU:
我们注意到,当A是固定的时候,矩阵S和U可以在一个问题中联合学习。在下一小节中,我们可以自适应地找到所有视图的共识锚点
当统一矩阵U更新时,我们可以探索共识锚,并在所有视图中重新定位它们。对于第v个视图数据的第j个子簇,根据与之连接的所有数据点的平均值可以得到它的锚点 a j v a_j^v ajv
其中 a j v ∈ R d v × 1 j = 1 , … , t a_j^v \in R^{d_v \times 1} \quad j = 1,\dots,t ajv∈Rdv×1j=1,…,t
二部图的边权可以用U表示 其中每个元素 u i j u_{ij} uij是连接 x i x_i xi和所有视图对应的 a j a_j aj的边的权值
在这种情况下,加权邻接矩阵 Z ∈ R ( n + t ) × ( n + t ) Z \in R^{(n+t) \times (n+t)} Z∈R(n+t)×(n+t) 度矩阵 D U D_U DU
D 1 ∈ R n × n , 其 中 的 元 素 是 ∑ j = 1 t u i j , D 2 ∈ R t × t 其 中 的 元 素 是 ∑ i = 1 n u i j D_1 \in R^{ n \times n},其中的元素是 \sum_{j=1}^t u_{ij},D_2 \in R^{t \times t} 其中的元素是\sum_{i=1}^n u_{ij} D1∈Rn×n,其中的元素是∑j=1tuij,D2∈Rt×t其中的元素是∑i=1nuij
引理二:归一化拉普拉斯矩阵LU的特征值0的重数c等于与U相关的二部图中连通分量的个数。
问题进一步转化为:
迭代优化
问题变为:
所有视图间是独立的:
此外,我们还可以发现对每个向量更新 s i v s_i^v siv是独立的:
简化计算: θ i 的 第 j 个 元 素 是 θ i j = ∣ ∣ x i v − a j v ∣ ∣ \theta_i的第j个元素是 \theta_{ij} = ||x_i^v - a_j^v || θi的第j个元素是θij=∣∣xiv−ajv∣∣ 问题18变为:
推导过程:
min ∑ j = 1 t ∥ x i v − a j v ∥ 2 2 s i j v + α ∥ s i v ∥ 2 2 + ∥ u i − s i v ∥ 2 2 δ v min ∑ j = 1 t θ i j s i j v + α ∥ s i v ∥ 2 2 + ∥ u i − s i v ∥ 2 2 δ v min ∑ i = 1 t ∑ j = 1 t θ i j s i j v + α ∥ s v ∥ F 2 + ∥ U − S v ∥ F 2 δ v min ∑ i = 1 t θ i T s i v + α s i v T s i v + ∥ u i − s i v ∥ 2 2 δ v min ∑ i = 1 t θ i T s 2 v α + s i v T s i v + ∥ u i − s i v ∥ 2 2 α δ v min ∑ i = 1 t s i v T s i v + 2 θ i T s i v 2 α + θ i T θ 4 α 2 − θ i T θ 4 α 2 + ∥ u i − s i v ∥ 2 2 α δ v min ∑ i = 1 t ∥ s i v + θ i 2 α ∥ 2 2 + 1 α ∥ u i v − s i v ∥ 2 2 δ v \begin{aligned} &\min \sum_{j=1}^t\left\|x_i^v-a_j^v\right\|_2^2 s_{i j}^v+\alpha\left\|s_i^v\right\|_2^2+\left\|u_i-s_i^v\right\|_2^2 \delta_v \\ &\min \sum_{j=1}^t \theta_{i j} s_{i j}^v+\alpha\left\|s_i^v\right\|_2^2+\left\|u_i-s_i^v\right\|_2^2 \delta_v \\ &\min \sum_{i=1}^t \sum_{j=1}^t \theta_{i j} s_{i j}^v+\alpha\left\|s^v\right\|_F^2+\left\|U-S^v\right\|_F^2 \delta_v \\ &\min \sum_{i=1}^t \theta_i^{T} s_i^v+\alpha {s_i^{v }}^T s_i^v+\left\|u_i-s_i^v\right\|_2^2 \delta_v \\ &\min \sum_{i=1}^t \frac{\theta_i^T s_2^v}{\alpha}+{s_i^{v}}^T s_i^v+\frac{\left\|u_i-s_i^v\right\|_2^2}{\alpha} \delta_v \\ &\min \sum_{i=1}^t {s_i^{v}}^T s_i^v+\frac{2 \theta_i^T s_i^v}{2 \alpha}+\frac{\theta_i^{T} \theta}{4 \alpha^2}-\frac{\theta_i^{T} \theta}{4 \alpha^2}+\frac{\left\|u_i-s_i^v\right\|_2^2}{\alpha} \delta v \\ &\min \sum_{i=1}^t\left\|s_i^v+\frac{\theta_i}{2 \alpha}\right\|_2^2+\frac{1}{\alpha}\left\|u_i^v-s_i^v\right\|_2^2 \delta_v \end{aligned} minj=1∑t∥∥xiv−ajv∥∥22sijv+α∥siv∥22+∥ui−siv∥22δvminj=1∑tθijsijv+α∥siv∥22+∥ui−siv∥22δvmini=1∑tj=1∑tθijsijv+α∥sv∥F2+∥U−Sv∥F2δvmini=1∑tθiTsiv+αsivTsiv+∥ui−siv∥22δvmini=1∑tαθiTs2v+sivTsiv+α∥ui−siv∥22δvmini=1∑tsivTsiv+2α2θiTsiv+4α2θiTθ−4α2θiTθ+α∥ui−siv∥22δvmini=1∑t∥∥∥∥siv+2αθi∥∥∥∥22+α1∥uiv−siv∥22δv
如果我们约束svi有k个非零元素,问题(19)可以用闭合形式来解决。也就是说,对于每个数据点xv i,只考虑k个最近的锚,而不是k个最近的数据点。
根据GMC:https://blog.csdn.net/qq_45178685/article/details/127976977
问题变为问题2 由等式8求解
问题变为:
归一化拉普拉斯矩阵的性质:
问题22变为:
类似地,为U中的每一行更新ui是独立的。我们可以有:
根据拉格朗日函数:
问题变为:
F写成分块矩阵形式:
F 1 ∈ R n × c F 2 ∈ R t × c F_1 \in R^{n \times c} \quad F_2 \in R^{t \times c} F1∈Rn×cF2∈Rt×c
问题变为:
令 B = ( D 1 ) − 1 / 2 U ( D 2 ) − 1 / 2 B ∈ R n × t B = (D_1)^{-1/2}U(D_2)^{-1/2} \quad B \in R^{n \times t} B=(D1)−1/2U(D2)−1/2B∈Rn×t