论文总结:3D Talking Face With Personalized Pose Dynamics

论文解决的问题:大多数现有的3D人脸生成方法只能生成静态头部姿势的3D面部,只有少数几篇文章关注头部姿势的生成,但这些文章也忽略了个体属性。
解决方法:框架由两个独立模块组成:PoseGAN和PGFace。给定输入音频,PoseGAN首先为3D头部生成一个头部姿势序列,然后PGFace利用音频和姿势信息生成自然的面部模型。通过结合这两个部分,可以构建一个具有动态头部运动的3D说话头部。
论文总结:3D Talking Face With Personalized Pose Dynamics_第1张图片
Gpose表示3D头部姿势序列的生成器,Dpose是鉴别器。人脸形状参数由PGFace生成。

在生成阶段,首先使用深度语音对输入音频进行编码,然后将提取的特征馈送到两个之前提出的模块中:头部姿势生成对抗网络(PoseGAN)模块和姿势引导面部(PGFace)生成模块。如上图所示,PoseGAN模块用于提取具有旋转和平移参数的跨模态头部姿势序列。PGFace模块使用头部姿势参数来生成与音频相对应的面部形状参数。通过结合音频、头部姿势序列和面部形状参数,可以合成具有动态姿势的最终3D说话脸。

数据集:如果简单地应用OpenFace在原始视频中检测到的头部姿势序列,可能会在一些高频区域引起不稳定的效果,使头部运动看起来不令人满意。因此,我们提出了一种高斯滤波方法,通过在时间维度上对头部姿势参数进行滤波,以产生令人满意的结果。
论文总结:3D Talking Face With Personalized Pose Dynamics_第2张图片

蓝色曲线表示原始音高参数。橙色曲线表示平滑的音高参数。

你可能感兴趣的:(论文总结,transformer,深度学习,pytorch,人工智能)