超图聚类论文阅读1:Kumar算法

超图聚类论文阅读1:Kumar算法

《超图中模块化的新度量:有效聚类的理论见解和启示》

《A New Measure of Modularity in Hypergraphs: Theoretical Insights and Implications for Effective Clustering》

COMPLEX NETWORKS 2020, SCI 3区

具体实现源码见HyperNetX库

工作:

  1. 针对超图聚类问题推广模块度最大化框架
  2. 引入了一个超图空模型,它与无向图的配置模型完全对应。
  3. 推导出一个保留超图节点度序列的邻接矩阵缩减

成果:

  1. 使用 Louvain 方法最大化由此产生的模块化函数,已知在图实践中效果很好
  2. 在几个真实世界的数据集上展示了我们的方法的有效性

简介

先前工作

  • 注意力限制在 k-均匀超图上,其中所有超边具有相同的固定大小。

    提出合适的超图拉普拉斯算子来扩展一般超图的谱聚类框架——隐含了图扩展的思想

  • 模块度最大化是图上聚类的另一种方法,它提供了一个标准来衡量模块化函数中的集群质量

    经典方法为louvain算法

  • 团扩展问题:会丢失编码在超边结构中的关键信息。也不会保留超图的节点度——这是模块度最大化方法基于的零模型所必需的

  • 有多种切割超边的方法。根据切割不同侧节点的比例和分配,聚类将发生变化。需要考虑超边权重

本文贡献

  1. 在超图上定义了一个空模型(可以保持超图节点度信息),并使用上述定义了一个模块化函数,可以使用 Louvain 方法将其最大化。
  2. 提出了一种迭代超边重新加权过程,该过程利用来自超图结构的信息和超边切割的平衡。
  3. 在几个真实世界的数据集上凭经验评估了生成的算法,证明了其相对于竞争基线的有效性和效率。

背景知识

  1. 超图——关联矩阵、团扩展
  2. 模块度

超图模块度

节点的采样概率与其参与的超边的数量(或在加权情况下,总权重)成正比
P i j h y p = d ( i ) × d ( j ) ∑ v ∈ V d ( v ) P_{i j}^{h y p}=\frac{d(i) \times d(j)}{\sum_{v \in V} d(v)} Pijhyp=vVd(v)d(i)×d(j)

  • 在进行团扩展时,相应图中节点的度数与它在图中的度数不同原始超图

对于每个超边 e,节点度被多算了一个因子 (δ(e) − 1)。因此,我们可以通过将每个 w(e) 缩小一个因子 (δ(e) − 1) 来纠正它。这导致以下更正的邻接矩阵:
A h y p = H W ( D e − I ) − 1 H T A^{h y p}=H W\left(D_e-I\right)^{-1} H^T Ahyp=HW(DeI)1HT
我们可以使用这种保留节点度数的缩减,将对角线归零,以实现方程式中的空模型。

超图模块度的表达式:
Q h y p = 1 2 m ∑ i j [ A i j h y p − P i j h y p ] δ ( g i , g j ) Q^{h y p}=\frac{1}{2 m} \sum_{i j}\left[A_{i j}^{h y p}-P_{i j}^{h y p}\right] \delta\left(g_i, g_j\right) Qhyp=2m1ij[AijhypPijhyp]δ(gi,gj)
与任何加权图一样,此函数的范围是 [−1, 1]。当超边中没有一对节点属于同一集群时,我们将得到 Qhyp = −1,而当属于同一超边的任何两个节点始终属于同一集群时,我们将得到 Qhyp = 1。 Qhyp = 0,对于任何一对节点 i 和 j,同时包含 i 和 j 的超边数等于包含 i 和 j 的随机连线超边数,由空模型给出。

迭代超边重新加权

问题:最小切割算法会支持尽可能不平衡的切割

思路:我们希望在簇中保留不平衡的超边,并切割更平衡的超边——可以通过增加获得不平衡切割的超边的权重,并减少获得更平衡切割的超边的权重来完成。

超边被一分为二,两边节点数分别为k1、k2:
t = ( 1 k 1 + 1 k 2 ) × δ ( e ) t=\left(\frac{1}{k_1}+\frac{1}{k_2}\right) \times \delta(e) t=(k11+k21)×δ(e)

超图聚类论文阅读1:Kumar算法_第1张图片

k 1 = k 2 = δ ( e ) / 2 k1=k2=\delta(e)/2 k1=k2=δ(e)/2时,t取最小值4,推广上式:
w ′ ( e ) = 1 m ∑ i = 1 c 1 k i + 1 [ δ ( e ) + c ] w^{\prime}(e)=\frac{1}{m} \sum_{i=1}^c \frac{1}{k_i+1}[\delta(e)+c] w(e)=m1i=1cki+11[δ(e)+c]
——+1 和 +c 项都被添加用于平滑,以解决任何 ki 为零的情况。我们除以 m 来归一化权重

令 wt(e) 为超边 e 在第 t 次迭代中的权重,w’(e) 为在给定迭代中计算的权重,则权重更新规则可写为:
w t + 1 ( e ) = α w t ( e ) + ( 1 − α ) w ′ ( e ) w_{t+1}(e)=\alpha w_t(e)+(1-\alpha) w^{\prime}(e) wt+1(e)=αwt(e)+(1α)w(e)

示例

初始的切分很不均匀,有1:4、1:2、2:3等切分,改进后,不均匀的切割被去除——h1 和 h3 中的单个节点最初分配给另一个集群,已被拉回它们各自的(更大的)集群。

超图聚类论文阅读1:Kumar算法_第2张图片

实验

度量指标

  • 使用平均 F1 度量兰德指数RI来评估具有真实类别标签的真实世界数据的聚类性能

几种用作对比的方法

  1. 团扩展+louvain

  2. 超图谱聚类

  3. hMETIS 和 PaToH

数据集

  • MovieLens:联合导演
  • Cora 和 Citeseer:论文共同作者
  • TwitterFootball:足球俱乐部
  • Arnetminer:共引论文

结果

  • 在所有数据集上显示最佳平均 F1 分数、在除一个数据集外的所有数据集上显示最佳兰德指数分数
  • 在所有数据集和两种实验设置上都优于各自的团扩展方法
  • f分析得出碎片边增加,这可能对应于更平衡的切割

结论

  • 考虑了超图上的模块化最大化问题。在提出超图的模块化函数时,我们推导出了一个节点度保持图缩减和一个超图空模型
  • 为了进一步细化聚类,我们提出了一种超边重新加权过程,可以平衡聚类方法引起的切割
  • 迭代重新加权模块化最大化 (IRMM)在数据集上表现出不错的性能

你可能感兴趣的:(超图聚类,算法,聚类,论文阅读)