具有连接的文档应该具有相似的主题。
除了41和29,在GNN中集成主题结构的研究还很少。
但是这两种方法,latent topics都是提前在document set中提取的,并没有考虑document-word链接和document链接的深层次信息传播。
这样提取到的主题,可能是次优的。
GTNN是inductive的,可以处理训练集中未出现的文档,而其他的一些方法要求测试集的文档再训练时就已经包含在graph中。
为了解决“其他方法为在数据中假设潜在的主体结构,限制了resulting representation的有效性,且不利于interpret”的问题,Wang et al. [41] proposed DHTG to integrate the topic model into the graph construction. It first extracts hierarchical topics to describe the document contents using probabilistic deep topic model. These topics are added into the document-word network, on which GCN is applied to generate node representations. Long et al. [29] proposed GraphSTONE to incorporate the topic model into graph embedding. It first mines the latent topic structure on the graph, and then incorporate the mined topic features with graph neural network for node embedding.
[41]Zhengjue Wang, Chaojie Wang, Hao Zhang, Zhibin Duan, Mingyuan Zhou, and Bo Chen. 2020. Learning Dynamic Hierarchical Topic Graph with Graph Convolutional Network for Document Classification. AISTATS
[29]Qingqing Long, Yilun Jin, Guojie Song, Yi Li, and Wei Lin. 2020. Graph Structural-topic Neural Network. In SIGKDD. 1065–1073.
[27]Ngo Van Linh, Tran Xuan Bach, and Khoat Than. 2020. Graph Convolutional Topic Model for Data Streams. arXiv (2020), arXiv–2003.
[46]Liang Yang, Fan Wu, Junhua Gu, Chuan Wang, Xiaochun Cao, Di Jin, and Yuanfang Guo. 2020. Graph Attention Topic Modeling Network. In WWW. 144–154.
[49]Qile Zhu, Zheng Feng, and Xiaolin Li. 2018. GraphBTM: Graph enhanced autoencoded variational inference for biterm topic model. In EMNLP. 4663–4672.
模型的目标是统一主题和图建模,从而在一个潜在的主题空间中提取可解释的低维文档和单词表示
word-word:两个word的point-wise mutual information(PMI)(正数)
doc-word:word j在document i中的TF-IDF值
在相同性质节点中传播,即文档之间和单词之间,
document和word的隐藏表示:
探索间接的doc-word、doc-doc、word-word关系
t层的document d和word v的表示分别由t-1层的word-to-doc message passing(WDMP)和doc-to-word message passing(DWMP)来得到的:
上述过程可看做基于BGMP的关系主题建模推理。下面进行证明:
与传统关系主题模型类似,假设doc-wod graph X ^ \hat{X} X^,document network A A A和word network C C C都是由Poisson prior distribution生成的。
公式6利用杰森不等式可以进一步改写为:
使用EM算法可以用来最大化上述的对数似然函数来进行推理。
可以看到公式9的推断,迭代等价于公式4的BGMP信息传播公式
通过这种比较,GTNN模型可以解释为GCN和BGMP对基于泊松分布的关系主题模型进行的半平摊推理。