论文阅读-Null-text Inversion for Editing Real Images using Guided Diffusion Models

一、论文信息

作者团队:

论文链接:https://arxiv.org/pdf/2211.09794.pdf

代码链接:https://github.com/google/prompt-to-prompt

二、Conditional Diffusion(classifier-free guidance)

论文阅读-Null-text Inversion for Editing Real Images using Guided Diffusion Models_第1张图片

Classifier-free guidance方法训练:

对于有条件的训练集(如图文对数据集),以某个概率p将其中的某些条件置为空,然后进行训练。

论文阅读-Null-text Inversion for Editing Real Images using Guided Diffusion Models_第2张图片

实际生成:

三、DDIM Inversion

  • DDPM生成图像的反向去噪过程(由Xt去预测Xt-1):

    论文阅读-Null-text Inversion for Editing Real Images using Guided Diffusion Models_第3张图片

当随机噪声的系数=0,此时变为确定性采样过程,一旦初始的噪声XT确定了,样本的生成也就变为确定过程。

  • DDIM inversion:

DDIM的逆过程,即对于原图像进行加噪,最终得到一张噪声图。

将该噪声图作为采样起点进行去噪,最终又会生成原图像(即实现对原图像的重建过程)。这一整个过程常被用于图像编辑等任务。

四、Null-text Inversion

  • 动机

利用DDIM Inversion做图像重建或图像编辑任务时,直接做有条件的DDIM重建会导致误差累积,从而导致重建结果逐渐偏离原图像;

现有的图像编辑方法大多需要对模型进行微调,或对模型权重、内部结构等进行优化,操作起来比较复杂。

  • 本文方法:null-text inversion

    论文阅读-Null-text Inversion for Editing Real Images using Guided Diffusion Models_第4张图片

首先对输入图像提取caption,然后在每个采样时间步t,都利用以下损失函数对null-text embedding进行优化

约束损失:

最终得到每个采样时间节点t所对应的优化后的null-text embedding,并实现对图像的重建。

利用DDIM Inversion得到的ZT和优化后的null-text embedding序列,可以实现有条件的图像编辑。

  • 实验结果

    论文阅读-Null-text Inversion for Editing Real Images using Guided Diffusion Models_第5张图片

论文阅读-Null-text Inversion for Editing Real Images using Guided Diffusion Models_第6张图片

你可能感兴趣的:(读论文,深度学习,论文阅读)