简单尝试DeepFaceLab(DeepFake)的新AMP模型

DeepFaceLab相关文章

一:《简单介绍DeepFaceLab(DeepFake)的使用以及容易被忽略的事项》
二:《继续聊聊DeepFaceLab(DeepFake)不断演进的2.0版本》
三:《如何翻译DeepFaceLab(DeepFake)的交互式合成器》
四:《想要提高DeepFaceLab(DeepFake)质量的注意事项和技巧(一)》
五:《想要提高DeepFaceLab(DeepFake)质量的注意事项和技巧(二)》
六:《友情提示DeepFaceLab(DeepFake)目前与RTX3080和3090的兼容问题》
七:《高效使用DeepFaceLab(DeepFake)提高速度和质量的一些方法》
八:《支持DX12的DeepFaceLab(DeepFake)新版本除了CUDA也可以用A卡啦》
九:《简单尝试DeepFaceLab(DeepFake)的新AMP模型》
十:《非常规的DeepFaceLab(DeepFake)小花招和注意事项》

文章目录

  • 一,不算太新的AMP模型
    • 1.1 什么是AMP模型
    • 1.2 训练AMP的步骤
    • 1.3 最终效果
  • 二,其它模型及特点
    • 2.1 SAEHD
    • 2.2 Quick96
    • 2.3 被移除的模型

一,不算太新的AMP模型

1.1 什么是AMP模型

在2021年5月30日的版本中,作者试验性的加入了AMP模型。
目前版本就有3个模型了:

  • AMP
  • Quick96
  • SAEHD

AMP:对应amplifier(放大器),因为目标的面部表情被放大到源脸。
这个模型可以控制morph factor(变形因子)参数,可以在合成前指定 0.01.0 的参数值。
当然还有很多具体的描述请看作者原文档吧。

1.2 训练AMP的步骤

  1. 需要足够多样的源脸数据集。

  2. 设置morph factor(变形因子)为0.5

  3. 运行6) train AMP SRC-SRC.bat脚本,训练源到源到50万次以上迭代 (越多越好)

  4. model目录中删除inter_dst文件

  5. 常规训练——也就是运行6) train AMP.bat

1.3 最终效果

测试的内容都删了,才发现忘记截图……只能文字举个例子。
简单尝试DeepFaceLab(DeepFake)的新AMP模型_第1张图片
AMP模型最大的特点就是合成时指定morph factor变形因子。

  • morph factor = 0.0:合成后完全是目标脸,等于根本没有换脸。
  • morph factor = 1.0:合成后完全是源脸。

所以当morph factor介于0.01.0之间时,合成效果就在更像源/更像目标之间浮动。
试了一下确实是这样,但是对比SAEHD似乎没找到AMP的优点,它到底是干嘛用的。

个人怀疑,它是不是用于源难以重现目标所有表情时的一个选择?
如果你知道,请不吝赐教。
.

二,其它模型及特点

2.1 SAEHD

平时用的正常的模型,有很多参数选择。
可以根据自己的显卡调整分辨率和学习网络的各种选项。
简称SAEHD:High Definition Styled AutoEncoder
之前各种文章都是用的这个模型(也没别的啊)。
.

2.2 Quick96

最快速的模型,没有任何选项,固定96分辨率,全脸。
因为固定了选项,所以会自动用作者提供的预训练数据(所以很快)。
可以用在低端显卡上,比如2GB+的NVidia,或者4GB+的AMD。.

用这个模型可以快速的试一下,出效果。
缺点是分辨率太低了,量变引起质变,有时导致最终效果不佳(不仅是分辨率)。
.

2.3 被移除的模型

  • TrueFace:只能N卡用,作者试了一下就移除了。
  • SAE:被SAEHD给替代了。
  • avatar :是不是给动漫用的,忘记了……反正被移除了,其效果可以被代替。
  • RecycleGAN:呃,完全没印象……

你可能感兴趣的:(Windows,Python,人工智能/机器学习)