paper link:https://openreview.net/pdf?id=qw8AKxfYbI
It also raises the question of whether guidance can be performed without a classifier: in what we call classifier-free guidance
we jointly train a conditional and an unconditional diffusion model, and we combine the resulting conditional and unconditional score estimates to attain a trade-off between sample quality and diversity similar to that obtained using classifier guidance
We have presented classifier-free guidance, a method to increase sample quality while decreasing sample diversity in diffusion models.
Classifier guidance is a recently introduced method to trade off mode coverage and sample fidelity in conditional diffusion models post training, in the same spirit as low temperature sampling or truncation in other types of generative models.
classifier guidance的不足:
取得的结果:
Our classifier-free guidance results demonstrate that pure generative diffusion models are capable of synthesizing extremely high fidelity samples possible with other types of generative models.
forward process:
forward process runs in the direction of decreasing λ。
reverse process start from :
我们根据预测的噪音参数化 x θ x_{\theta} xθ.
训练的目标函数是:
在conditional generative建模的情况下,数据x与条件信息c(即用于类条件图像生成的类标签)一起绘制。对模型的唯一修改是逆过程函数逼近器接收c作为输入,
在反向过程中缩放模型分数或降低高斯噪声的方差会导致扩散模型生成模糊的低质量样本
(这个概念的主要工作是Diffusion models beat GANs on image synthesis,简称beat-gan)
其中diffusion score 被修改如下:其中w是控制分类器引导强度的参数。
由此,在采样过程中的分布近似为:
其效果是对分类器所针对的数据的概率进行加权。 beat-gan发现,通过设定w>0, 他们可以提高其扩散模型的Inception score,但代价是样本的多样性降低。
将权重w+1的分类器指导应用于无条件模型理论上将导致与将权重w的分类器指导应用于条件模型相同的结果, 因为:,就分数而言:
Classifier-free guidance is an alternative method of modifying to have the same effect as classifier guidance, but without a classifier.
算法1和算法2详细描述了classifier-free guidance下的训练和采样
我们使用单个神经网络来参数化这两个模型,对于无条件模型,我们可以在预测分数时简单地为类标识符 c 输入空标记 ∅,也就是说。我们联合训练unconditional 和conditional models 以一定的概率将 c 随机设置为无条件类标识符 ∅。
然后,我们使用以下条件分数估计和无条件分数估计的线性组合来执行采样。
公式6不存在分类器梯度。
we show empirically that classifier-free guidance is able to trade off FID and IS in the same way as classifier guidance.
实验结论:
我们的无分类器指导方法最实用的优点是它的极端简单:它只需要在训练期间更改一行代码—随机去掉条件—以及在抽样期间—混合条件和无条件的分数估计。相比之下,分类器指导使训练管道复杂化,因为它需要训练额外的分类器。这个分类器必须在有噪声的zλ上训练,所以不可能插入一个标准的预先训练的分类器。
我们还得出了一个关于指导如何工作的直观解释:它减少了样本的无条件可能性,同时增加了条件可能性。无分类器指导通过减少带有负分值项的无条件可能性来实现这一点,据我们所知,该分值项尚未被探索,可能会在其他应用中找到用途。
无分类器制导的一个潜在缺点是采样速度。一般来说,分类器可以比生成模型更小、更快,所以分类器引导的采样可能比无分类器引导的采样更快,因为后者需要运行扩散模型的两个前向传递,一个用于条件评分,另一个用于无条件评分。通过改变架构,在网络后期注入条件反射,可能会减轻对扩散模型进行多次传递的必要性,但我们把这个探索留给未来的工作。
最后,任何以牺牲多样性为代价来提高样本保真度的guidance方法都必须面对减少多样性是否可接受的问题。 在已部署的模型中可能会有负面影响,因为在某些数据部分在其他数据上下文中没有得到充分表示的应用程序中,样本多样性对于维护应用程序非常重要。在保持样本多样性的同时,提高样本质量将是未来工作的一个有趣途径。
在扩散模型中,我们提出了一种既能提高样本质量又能减少样本多样性的无分类器引导方法。无分类器指导可以被认为是没有分类器的分类器指导,我们的无分类器指导的有效性证实了**纯生成扩散模型能够最大化基于分类器的样本质量度量,同时完全避免分类器梯度。**我们期待在更广泛的环境和数据模式中进一步探索无分类器指导。