【metahuman&UE】虚幻引擎面捕动捕调研

UE&Maya live link

教程链接:https://www.bilibili.com/video/BV1xP4y1w7Dt

这个教程可以实现MAYA和UE的联动,同步摄像机序列和人物骨骼绑定,用maya来K动画同步到UE中,但我不知道maya k动画会不会比UE方便,所以不确定有没有用,但是先mark一下。

Deep Motion免费的动作捕捉网站

(每个月有只有20s的试用时长,只能处理10s数据…所以要花点钱)

教程链接:https://www.bilibili.com/video/BV1VL4y137p1/?spm_id_from=333.788

网站地址:https://www.deepmotion.com/

可以把免费的视频转换为动作

输入视频要求:

  • 最大1980x1080
  • 人体都能看到,关节暴露,与背景对比度好。
  • 相机距离拍摄对象6-20英尺,紧身图案服装,无遮挡。
  • 无卡通人物
  • 没有宽松的衣服
  • 禁止多人
  • 无物体遮挡
  • 没有纯色的衣服

教程链接:如何拍摄合适的视频?

https://www.bilibili.com/video/BV1n34y1Z7it/

  • 登录网站上传视频
  • 勾选Physics Filter和Root Joint at Origin,点击Create,然后等待,可以预览效果,如果不行就得重录,再下载。
  • 打开UE,拖入刚刚下载的动画文件(选没有Tpose的那个),勾选Animation->Import Animation。自动生成骨骼。
  • 进行动作重定向(之前搞过),但DeepMotion生成的没有骨骼映射,所以需要将骨骼映射文件复制粘贴到工程目录内容文件夹中,再加载选择没有root的那个映射文件。 要记得在右边把Mesh里的,应用到资产。
  • 然后DeepMotion是Tpose,动画重定向需要两边初始Pose相同,所以调整一下姿势。这里调整Metahuman的。
  • 可以手动调节upperarm_l,upperarm_r,lowerarm_l,lowerarm_r的旋转数值为0。upperarm_l,upperarm_r(-25°, 7°,0°)。手指再都调平(具体数值需要自己取调哈~不要完全参照这个)。

面部捕捉

教程链接:https://www.bilibili.com/video/BV1JL4y1g73W/?spm_id_from=333.788

  • UE:打开Apple ARKit,Apple ARKit Face Support,live link插件
  • IPAD或Iphone:下载Live link Face,点击设置->Live link->添加本机IP地址(win+R输入cmd,命令行输入ipconfig查看),还需要再设置中打开流送头部旋转。
  • UE:选择场景中人物,Default->Link Face Subject->选择Ipad,Link Face Head(控制头部移动)

【如何变为序列?UE 】

  • Windows->Cinematics->Take Recorder
  • 将metahuman拖入镜头试拍录制器,运行并开始录制
  • 新建一个动画序列,拖入Bp_Bernice,删除脸部ControlRig,进行播放。

【如果前面有选择录制人物头部的动作,这里会发现头没有动。因为头是和脖子绑定的】

  • 新建一个动画蓝图
  • 新建一个人物蓝图,创建skeleton mesh做脸,链接原先的人物脸部骨骼,然后把其他东西都复制过去,保存一下,层级保持一样就好。

你可能感兴趣的:(虚幻,游戏引擎)