深度学习中隐变量(latent variable)理解

假如有 x , y x,y x,y服从如下分布关系:深度学习中隐变量(latent variable)理解_第1张图片
看起来像是3元混合高斯分布,比较复杂。

如果我们再引入隐变量 z z z,使得 z = z 1 z = z_1 z=z1时, x , y ∼ N ( μ 1 , Σ 1 ) x, y \sim N(\mu_1, \Sigma_1) x,yN(μ1,Σ1) z = z 2 z = z_2 z=z2时, x , y ∼ N ( μ 2 , Σ 2 ) x, y \sim N(\mu_2, \Sigma_2) x,yN(μ2,Σ2) z = z 3 z = z_3 z=z3时, x , y ∼ N ( μ 3 , Σ 3 ) x, y \sim N(\mu_3, \Sigma_3) x,yN(μ3,Σ3)。问题就变得简单多了。

而从图中可以看出每个区域点的密度也不一样,这对应隐变量 z z z的分布,即 P ( z = z i ) = p i P(z = z_i) = p_i P(z=zi)=pi

你可能感兴趣的:(深度学习中隐变量(latent variable)理解)