利用生成模型对数据、图和标签之间的联合分布进行建模,以解决基于图的半监督学习。
方法的目标是基于给定的数据 ( X , Y o b s , G ) (X,Y_{obs},G) (X,Yobs,G)推断 Y m i s s Y_{miss} Ymiss。通常是学习条件概率分布 p ( Y ∣ X , G ) p(Y|X,G) p(Y∣X,G),而这又是通过经验风险最小化学习一个预测模型 y = f ( x ; X , G ) y=f(x;X,G) y=f(x;X,G)完成的。这些方法中图 G G G是固定不变的,这显然是不现实的。
作者要将 G G G变成随机变量,并且利用 X , Y , G X,Y,G X,Y,G之间的潜在结构改善预测的性能。生成过程可以通过联合分布的以下分解来说明
p ( X , Y , G ) = p ( G ∣ X , Y ) p ( Y ∣ X ) p ( X ) p(X,Y,G)=p(G|X,Y)p(Y|X)p(X) p(X,Y,G)=p(G∣X,Y)p(Y∣X)p(X)
其中条件概率 p ( G ∣ X , Y ) p(G|X,Y) p(G∣X,Y)和 p ( Y ∣ X ) p(Y|X) p(Y∣X)将通过一些带有参数 θ \theta θ的灵活参数族分布 p θ ( G ∣ X , Y ) p_{\theta}(G|X,Y) pθ(G∣X,Y)和 p θ ( Y ∣ X ) p_{\theta}(Y|X) pθ(Y∣X)建模。
图G应当是变化的,对于图未知的任务来说,以近邻方式间的图一定不是准确的,如果图随着训练的过程不越来越准确,模型的性能又怎么能提高?
[来源:如何理解生成模型与判别模型] https://blog.csdn.net/Forlogen/article/details/89200238)
对于分类问题而言,机器学习的目标可以理解为从一个给定的数据集上学习一个从自变量(特征) X X X到因变量(类标签) Y Y Y的映射。
那么对于判别方法而言,它最后学习到的是一个条件概率 P ( Y ∣ X ) P(Y|X) P(Y∣X),而生成模型学习到的是一个关于 X X X和 Y Y Y的联合概率 P ( Y , X ) P(Y,X) P(Y,X)。根据贝叶斯定理有 P ( Y , X ) = P ( Y ∣ X ) P ( X ) P(Y,X)=P(Y|X)P(X) P(Y,X)=P(Y∣X)P(X),而 X X X作为可观测变量,它满足的 P ( X ) P(X) P(X)是可以求出来的,因此只需要通过贝叶斯定理计算得到条件概率 P ( Y ∣ X ) P(Y|X) P(Y∣X)。