LDM中的对数据做正态分布应该怎么理解

客观数据的分布是很复杂的,,神经网络想要拟合客观数据非常难,所以才需要使用一个正态分布和神经网络一起把数据映射到另一个数据

所谓的生成模型所以需要通过一个神经网络,把一个复杂的数据分布,映射到一个我们已经知晓的数据分布,但是在实际的生成过程中,我们只给出了一个随机在标准正态分布中采样的数据,那其实就变成了,我们把一个标准的正态分布的数据映射到一个已知数据的分布上,也就是训练数据集的分布。

这里有个问题,真实数据分布应该看成什么呢,不同分布之间可以相互映射吗?
那显然不可能是纯高斯分布,甚至就连这里的从标准高斯分布去拟合整体数据分布,也都是人为规定的,这一切都要从VAE说起,VAE做了一个假设,那就是高维数据压缩到低维是一个正态分布。

你可能感兴趣的:(#,论文,pytorch)