学习笔记:HyperInverter: Improving StyleGAN Inversion via Hypernetwork 通过超网络改进StyleGAN逆映射

[CVPR-2022] HyperInverter: Improving StyleGAN Inversion via Hypernetwork 通过超网络改进StyleGAN逆映射

  • 摘要
  • 1. 现有方法
  • 2. 方法
    • 2.1 阶段Ⅰ:从图像到内容代码
    • 2.2 阶段Ⅱ:融合外观代码通过超网络改进生成器
  • 3. 实验
    • 3.1 重建结果
    • 3.2 编辑结果
    • 3.3 用户调查
    • 3.4 消融实验
    • 3.5 应用:真实世界的图像插值
  • 4. 总结


项目网站:https://di-mi-ta.github.io/HyperInverter
论文链接:https://arxiv.org/abs/2112.00719
代码链接:https://github.com/VinAIResearch/HyperInverter

摘要

近年来,对生成对抗网络(GAN)潜在空间的探索和利用,使得图像处理领域取得了惊人的进展。 要将GAN潜在空间探索的语义方向应用于真实世界的图像,常用的做法是“先反转,后编辑”。GAN逆映射是该途径的第一步,旨在将图像真实地映射到GAN模型的潜码。不幸的是,大多数现有的GAN逆映射方法至少不能满足下面三个要求之一:高重建质量、可编辑性和快速推理。本文提出了一种新颖的两阶段策略,可以同时满足所有要求。在第一阶段,我们训练一个编码器将输入图像映射到StyleGAN2 W W W空间, W W W空间具有出色的可编辑性,但重建质量较低。在第二阶段,我们通过利用一组超网络在逆映射过程中恢复丢失的信息来补充初始阶段的重建能力。超网络分支以及在具有出色可编辑性的 W W W空间中进行的逆映射,这两个步骤相互补充以产生高质量重建。我们的方法完全基于编码器,因此推理速度极快。在两个具有挑战性的数据集上进行的大量实验证明了我们方法的优越性。


1. 现有方法

在给定输入图像的情况下,确定GAN模型的潜码有两种通用方法:

  • 通过编码器推断:例如 pSp、e4e、Restyle等;

  • 通过迭代优化:例如PTI、SG2 W W W+ 等。

基于优化的方法通常能够比基于编码器的方法更准确地执行重建,但它需要对每个新图像进行优化或微调,所以会消耗更多的计算时间,这对于可编辑性就有所限制。


2. 方法

本文提出了一种完全基于编码器的方法,通过使用两阶段策略和超网络来优化生成器的权重以解决StyleGAN逆映射问题。第一阶段将输入图像 x x x通过标准编码器映射到GAN的潜在空间,然后在第二阶段对生成器进行优化,使其适应重建的潜码,以保留原始图像细节,同时允许可编辑性。该方法在几乎实时运行的同时具有高保真重建和出色的可编辑性。

学习笔记:HyperInverter: Improving StyleGAN Inversion via Hypernetwork 通过超网络改进StyleGAN逆映射_第1张图片

2.1 阶段Ⅰ:从图像到内容代码

在StyleGAN中,用于逆映射的 W W W空间比 W W W+ 空间的编辑能力更出色。 因此,作者选择 W W W空间来定位我们的潜码。

关于 W W W W W W+空间:因为GAN逆映射的目标不仅是真实地重建输入图像,还为了在之后能够有效地执行图像编辑。之前的多项工作提出了所谓的重建—编辑权衡,这种折衷取决于输入图像映射到的嵌入空间。原生StyleGAN的 W W W空间和扩展版的 W W W+ 空间是StyleGAN逆映射最流行的两个嵌入空间。具体来说,将图像逆映射到 W W W空间通常具有出色的可编辑性,但它们无法真实地重建输入图像。相反, W W W+ 空间允许获得更准确的重建,但它的可编辑能力会受到影响。

给定输入图像 x x x,训练编码器 E 1 E1 E1 x x x回归到相应的潜码 w w w w w w的大小为 R512), w w w具有编码图像中主要语义的内容代码的作用。 通过将潜码 w w w传递给生成器来重建图像^ x x xw。对于之后的图像编辑任务,我们可以在可解释的语义方向上遍历这个潜码来操作图像。

学习笔记:HyperInverter: Improving StyleGAN Inversion via Hypernetwork 通过超网络改进StyleGAN逆映射_第2张图片
在这一阶段,本文使用一组损失函数来确保真实的重建。重建损失 L L Lrec 定义为:

公式6
学习笔记:HyperInverter: Improving StyleGAN Inversion via Hypernetwork 通过超网络改进StyleGAN逆映射_第3张图片

  • L L L2 测量输入图像和重建图像之间的像素级相似性;
  • L L LLPIPS 是感知损失,其中 F F FLP 表示感知特征提取器;
  • L L LID,这里的 F F FID 是特定于类的特征提取器网络,〈 , 〉表示两个特征嵌入向量之间的余弦相似度。

由于潜码 w w w的维数相对较低,重建的图像在感知上与输入图像不同,这使得编辑结果缺乏说服力。为了解决这个问题,作者提出了第二阶段,通过用新的权重细化生成器来进一步提高重建质量。

2.2 阶段Ⅱ:融合外观代码通过超网络改进生成器

这个阶段的目标是恢复输入图像 x x x的缺失信息,从而减少输入图像和重建图像之间的差异。本文创建了一个单向前向传递网络,通过检查当前输入 x x x和重建^ x x xw来学习改进生成器 G G G。使用单向前向传递网络可以保证非常快的运行时间。

首先将输入图像 x x x和重建图像^ x x xw 编码为中间特征,并将它们融合成一个公共特征张量 h h h,输入到一组超网络中,得到一组残差权重。然后,使用残差权重更新生成器 G G G中的相应卷积层,来产生一组新的权重 Δ Δ Δθ(这里作者只考虑预测 G G G的主要卷积层、跳过偏差和其他层的权重)。更新后的生成器的卷积权重^θ = θ + Δ Δ Δθ。 最终的重建图像由阶段Ⅰ的内容代码 w w w通过更新的生成器 G G G( w w w, ^ θ)生成。经过优化的生成器的重建^ x x x比当前重建图像^ x x xw 更接近输入图像 x x x

学习笔记:HyperInverter: Improving StyleGAN Inversion via Hypernetwork 通过超网络改进StyleGAN逆映射_第4张图片
下图是超网络的设计细节。具体来说,每个超网络包含两个主要模块,特征Transformer和线性映射器。 特征Transformer是一个小型卷积神经网络,用于将外观代码转换为隐藏特征。线性映射器用于从隐藏特征到卷积权重的最终映射。本文使用两个小矩阵而不是单个大矩阵来进行权重映射,以保持超网络中的参数数量可管理。

学习笔记:HyperInverter: Improving StyleGAN Inversion via Hypernetwork 通过超网络改进StyleGAN逆映射_第5张图片
图表符号:conv2d(输入通道,输出通道,内核大小,步幅,填充)。为简单起见,图中省略了每个 conv2d 层之后的ReLU激活层。

在这一阶段,除了阶段Ⅰ的重建损失之外,作者还使用了非饱和GAN损失。由于我们在这个阶段修改了生成器的权重,所以这种损失有助于确保生成图像的真实性。

公式7
公式8

饱和损失:生成器希望最小化被判断为假的概率;
非饱和损失:生成器希望最大化被判断为真的概率。相比饱和损失,它能提供的梯度信息更好。


3. 实验

3.1 重建结果

作者将本文方法与当前最先进的StyleGAN逆映射方法的重建结果进行了定量和定性比较。

定量比较

作者使用了一组不同的指标来衡量重建质量。包括像素级L2损失、LPIPS、PSNR 和MS-SSIM,还使用了FID 和KID指标来评估重建图像的真实性。

本文用到的评价指标(L2、LPIPS、FID、KID、PSNR、MS-SSIM)在本篇文章末尾做了简单整理。

学习笔记:HyperInverter: Improving StyleGAN Inversion via Hypernetwork 通过超网络改进StyleGAN逆映射_第6张图片
这里箭头向下就表示数值越小越好,箭头向上就表示数值越大越好。最优和次优分别用加粗和下划线标记。

  • 本文的方法在基于编码器的方法中,各个指标的结果都是最好的;

  • 标红的数值代表本文的方法在这一指标上优于SG2 W W W+,在人脸数据集上,在L2、LPIPS 和PSNR上优于SG2 W W W+;在教堂数据集上,所有指标都超过了SG2 W W W+;

  • 标蓝的数值代表本文的方法在这一指标上优于PTI。本文的方法和PTI 相比,并没有什么提升;

  • 在推理时间上,本文的方法和其他基于编码器的方法差不多,但和基于优化的方法相比,它分别比SG2 W W W+ 和PTI 快3000倍和1100倍,速度有了大幅度的提升。

定性比较

然后是重建结果的定性比较。
学习笔记:HyperInverter: Improving StyleGAN Inversion via Hypernetwork 通过超网络改进StyleGAN逆映射_第7张图片

  • 对于人脸,本文的方法能够很好的保留细节,例如帽子、手部;

  • 在教堂数据集上,本文的方法在失真和感知方面也明显优于其他方法。由于PTI 受到失真感知权衡的影响,因此来自PTI 的图片并不完全真实。

3.2 编辑结果

定量比较

为了定量评估编辑能力,本文在每种逆映射方法上应用相同的编辑幅度 γ γ γ,作者选择的两个编辑方向分别是年龄和姿势。然后测量年龄编辑的年龄变化量 和姿势编辑的偏航角度变化量(以度为单位)。这里作者使用DEX VGG模型进行年龄回归,使用预训练的FacePoseNet进行头部姿势估计。

学习笔记:HyperInverter: Improving StyleGAN Inversion via Hypernetwork 通过超网络改进StyleGAN逆映射_第8张图片
最优和次优分别用加粗和下划线标记。

  • 阶段Ⅰ的编码器完成的逆映射取得了最显着的效果,因为它适用于高度可编辑的 W W W空间潜码;

  • 阶段Ⅱ改进后,仍然保留了编辑能力,虽然不如阶段Ⅰ的结果好,但也优于其他所有的方法。

定性比较

  • 由于本文方法的重建效果比其他基于编码器的方法更稳健,因此可以提供更好的编辑结果。本文的方法能够执行合理的编辑,同时保留非编辑的属性,例如背景。

  • 与SG2 W W W+ 相比,本文的方法编辑效果显着,并且具有更少的伪影,例如胡须。原因是本文的方法使用了具有出色编辑能力的 W W W空间,而SG2 W W W+ 使用了扩展 W W W+ 空间,可编辑性较低。

  • PTI 在人脸域上可以很好地进行编辑操作,但在教堂数据集上,PTI 受到失真感知权衡的影响,重建的图像并不真实,导致这些图像的后期编辑效果不佳。

3.3 用户调查

作者还做了一项用户调查,将本文的方法与另外两种基于编码器的逆映射方法进行了比较。参加测试的人员根据重建和编辑质量这两个标准将这三个方法进行排名,然后以百分比的形式展现出来。

学习笔记:HyperInverter: Improving StyleGAN Inversion via Hypernetwork 通过超网络改进StyleGAN逆映射_第9张图片
从图中可以看出,无论是重建质量,还是编辑质量,本文的方法都优于另外两种方法,并且有较大的差距。

3.4 消融实验

阶段Ⅱ的必要性

学习笔记:HyperInverter: Improving StyleGAN Inversion via Hypernetwork 通过超网络改进StyleGAN逆映射_第10张图片
从左侧表中可以看出,如果没有阶段Ⅱ,重建的质量会下降,这里展示的量化指标能够说明这一点。 在右侧可视化图中,我们可以看到重建的图像丢失了各种细节,例如帽子、领口、眼镜。 相比之下,通过阶段Ⅱ的改进,能够更真实地恢复输入图像。

融合外观代码的有效性

学习笔记:HyperInverter: Improving StyleGAN Inversion via Hypernetwork 通过超网络改进StyleGAN逆映射_第11张图片
(3) 是不同时使用输入图像和初始重建图像的特征,而仅使用输入图像特征的结果。(4) 是不使用分层设计的外观代码( h h h R R R L×1024×8×8),而是使用共享代码( h h h R R R 1024×8×8)的结果。从表中可以看出,本文的完整版本结果都优于这些简化版。

超网络中超参数D的不同选择

超网络设计中的隐藏维度 D D D对模型性能有明显影响。

学习笔记:HyperInverter: Improving StyleGAN Inversion via Hypernetwork 通过超网络改进StyleGAN逆映射_第12张图片
表中的第 (5)—(8) 行研究了 D D D的不同选择,从结果可以看出 D D D = 256 是最佳选择。

生成器中哪些层被更新

本文将超网络预测的残差权重可视化,来分析在应用阶段Ⅱ时生成器中的哪些层变化最大。作者选择可视化每层参数之间的平均绝对权重变化量,并将该值与其他层进行比较。

学习笔记:HyperInverter: Improving StyleGAN Inversion via Hypernetwork 通过超网络改进StyleGAN逆映射_第13张图片
toRGB将一个层中的特征向量投射到RGB颜色空间中,采用1×1卷积。

  • 主生成器块中的卷积层比 toRGB块中的卷积层贡献更大;

  • 最后一个分辨率(1024×1024)的权重变化明显大于其他分辨率的权重变化。在人脸域上(左侧图),由于阶段Ⅰ总体上对图像进行了很好的重建,因此在阶段Ⅱ,它们主要关注细粒度细节的细化。

3.5 应用:真实世界的图像插值

本文提出了一种在两个真实图像之间进行插值的新方法。给定两个输入图像,一个常用的过程是首先通过GAN逆映射找到对应的潜码,计算线性插值潜码,并通过GAN模型得到插值图像。 受两阶段逆映射机制的启发,我们提出了一种新的插值方法,通过插值潜码和生成器权重,而不是仅插值潜码。

将本文的方法与仅插值潜码的方法进行比较, 图中显示了一些定性结果,本文的方法不仅重建了具有正确细粒度细节(例如帽子、背景和手)的输入图像,而且还提供了平滑的插值图像。

学习笔记:HyperInverter: Improving StyleGAN Inversion via Hypernetwork 通过超网络改进StyleGAN逆映射_第14张图片


4. 总结

  • 本文提出了一个完全基于编码器的两阶段GAN逆映射方法,可以重建真实的图像,同时保持可编辑性和快速推理的能力。

  • 设计了一种新的网络结构,由一系列超网络组成,用于更新预先训练好的StyleGAN生成器的权重,从而提高重建质量。

  • 通过广泛的GAN网络逆映射的基准,证明了所提出方法与现有方法相比的优越性能。

  • 提出一种用于真实世界图像插值的新方法,它同时对潜码和生成器权重进行插值。


  • 像素级损失计算预测和目标图像的像素间损失。常见的有:MSE(L2损失),MAE(L1损失)和交叉熵等。均方误差(MSE,L2)是指参数估计值与参数真值之差平方的期望值,MSE可以评价数据的变化程度,MSE的值越小,说明预测模型描述实验数据具有更好的精确度。
  • 感知损失(LPIPS)是比较图像之间的高级感知和语义差异,它从预训练好的网络中提取前几层的输出值,从而获得图像的底层特征,然后通过简单的像素级损失来比较目标的特征张量和输出值的特征张量的区别。
  • 多尺度结构相似性(MS-SSIM)是一种衡量两幅图像相似度的指标,考虑了亮度、对比度和结构指标,这就考虑了人类视觉感知。图片按照一定规则,由大到小缩放,相当于考虑了分辨率,比以前的单尺度方法更灵活。
  • 峰值信噪比(PSNR)是一种衡量图像质量的指标(峰值信号的能量与噪声的平均能量之比),PSNR越大,代表着图像质量越好。
  • FID是评估生成图像质量的度量标准,专门用于评估GAN的性能。通过计算真实图像和生成图像的特征向量之间距离,来衡量两组图像的相似度。分数越低代表两组图像越相似,或者说二者的统计量越相似。(通过衡量生成图像和真实图像之间均值和协方差的差距,计算Fréchet距离,也称为Wasserstein-2距离,来度量生成图像质量)
  • KID通过计算Inception表征之间最大均值差异的平方来度量两组样本之间的差异。是一种和FID十分相似的GAN网络生成质量度量指标,可以评估GAN的收敛程度。

你可能感兴趣的:(深度学习,计算机视觉,生成对抗网络)