当你在跟你的虚拟偶像聊天时,你真的以为偶像背后是真人吗?

可能大家都适应了小爱同学、Siri、天猫精灵这些家用人工智能设备,也都知道他们背后是设置好的程序算法。那么当这个机器,换成你的虚拟偶像的时候呢?你会不会在某个时刻产生错觉,你的电脑背后,或者舞台上是有一个真人在表演或者说跟你互动?

有的虚拟偶像,说实话真的是真人捕捉后的影视化呈现,有的虚拟偶像是纯CG动画实现的。这个看品牌资方的选择。我们今天只来聊互动这回事。

关于他们的互动,我上个文章分享过,就是如何实现的智能互动,这次咱们分享动作互动。

虚拟数字人能够进行动作互动,肯定也是设置了一套程序算法,有的虚拟数字人的动作算法,是借助动作捕捉获取的数据,然后通过一个不知道该形容简单还是复杂的算法去反复测试,为了让虚拟数字人更加“人性化”,即时同一套动作,后台也会设置轻微差异,比如跑、走、跳这三个简单的动作,提前针对这几个动作,设置不同的指令反馈机制,然后呈现不同的跑、走、跳这样子。甚至会设定动作的场景化,比如“危险,快跑!”,虚拟数字人在接收到有关于这个信号时,ta会作出紧急情况下快跑的反应,如果是“快跑,赶不上车了”、“快跑,不然我要打你了”(举个例子哈)这两个虚拟数字人接收到的指令信息就不一样,虽然都是快跑,但是跑的含义不一样,对方能判别哪句是玩笑话,哪句是真的指令,甚至,在你给他互动沟通,说“快跑,不然我要打你”这句的时候,虚拟数字人甚至可能给你回复一句“好啊,看招”(这种反馈,应该就是熟人的反馈机制,或者伙伴)这样的反馈机制动作,也有可能是其他的(比如,如果设定的是律师,ta的角色设定是严肃的,好为人师那种,这个适合可能就会给你法律知识科普了),具体要看后台人员如何设定的。

你看到我上面描述的这些,不要以为是后台现场操作的,其实是提前设定好的程序,即使你觉得非常自然的对话和动作,也不要怀疑,真的是后台设定好的程序算法。

那么这个虚拟数字人,要做好这一系列“人性化”动作,是怎么提前设定好的呢?

首先是做好“人设”。这个包括身份信息、年龄、性别、国籍、身高、职业这些基本信息,也包括穿着、声音、发型、动作、五官、喜好(比如标志性动作)这些,还包括一些基本的互动信息设置,比如评论、聊天等等。想想你给你的爱豆做百度百科资料里面有啥这个就涉猎好啥,人设越细致越全面,互动可能就越逼真。

其次,列好你的理想偶像的特征,然后把需要实现的功能进行罗列,再针对性做好技术实现办法。这个主要针对虚拟数字人的职业功能属性,是淘宝客服那种角色,那么互动对话聊天中就用图文,如果是明星代言人角色,那么就富裕舞蹈、唱歌等表演功能,如果是翻译官角色,就设定多种语言,并且这个语言尽可能人的声音特色,而不是机器声音,如果是数控统计人物角色,行政属性角色,比如崔筱盼这样的角色。当然还有其他角色,都是一样,先把这个角色的功能职责属性列好,在进行技术实现,技术实现的过程,如果想要尽可能逼真,可以借助动捕技术实现。

关于这个虚拟数字人的动捕技术,可以用到动作捕捉和面部表情捕捉这两种设备,加上与之对应的动捕系统。

动作捕捉可以参考欧比邻·奥视得倍的GM系列动作捕捉相机的型号参数,面部表情捕捉可以参考HM1210-D3这个型号的动捕相机。

当你在跟你的虚拟偶像聊天时,你真的以为偶像背后是真人吗?_第1张图片当你在跟你的虚拟偶像聊天时,你真的以为偶像背后是真人吗?_第2张图片

 

 

你可能感兴趣的:(虚拟数字人,动作捕捉,p2p,网络协议,网络)