我有一个游戏想和你一起玩一下

若是说起VR游戏,你肯定不会觉得很陌生,但如果是完全以脑电波控制、进入游戏后连生死也代入了角色,这样的VR游戏,你也玩过吗?

最近民间发表剧场版《刀剑神域:序列之争》将在2017年2月24日在中国台湾地域上映,动画《刀剑神域》系列是依据第15届电击小说大奖取得者川原砾创作的同名小说改编的作品。

我有一个游戏想和你一起玩一下_第1张图片

去年,IBM日本宣布将以《刀剑神域》为主题打造的“完全浸入式VRMMORPG游戏(基于虚拟现实技术的大型多人在线角色扮演游戏)”——《Sword Art Online: The Beginning》,自消息传出以后就受到了持续的关注和热切期待。目前剧场版登陆中国,更是勾起了小编炮和广大SAO粉的期待。

目前的VR游戏什么时候才能到达SAO那种“完全潜入”的体验,多人互动的VR游戏能否实现?


完全浸入式VRMMORPG游戏

《刀剑神域》(Sword Art Online,简称SAO)以剧中的游戏为剧名,故事讲述2022年,人类实现了现实世界和虚拟世界的融合,电子制造商开发了名为《刀剑神域(Sword Art Online)》的在线电子游戏,人类通过次世代主机『NERvGear』完全进入虚拟世界。

根据SAO的动漫设定,玩家们通过NERvGear设备进入SAO的游戏中,主角们并不是通过设备操作游戏,而是全部大脑活动都进入了游戏中,甚至于角色在游戏中死亡的话,玩家现实中的身体也就会失去意识,变为植物人。

动漫中的那套VR设备『NERvGear』是用虚拟的数字信号替换或在强度上压制大脑产生的神经信号,将VR产生的虚拟感官信息通过非侵入式脑机接口投射到人大脑的相应控制区域形成生物信号,与此同时收集并处理大脑发出的运动控制信号,还要抑制脊髓上的部分神经兴奋。

我有一个游戏想和你一起玩一下_第2张图片

以目前的技术,这听起来像是不可能做到的事情,因为除了虚拟现实相关技术还涉及神经学(细胞诱导、神经截断等),现代医学在这方面仍属空白。但由于《刀剑神域》本身火爆的影响力和目前VR、人机交互等技术的逐步发展,为了接近SAO中“完全潜行”的体验,探讨目前已知的相关技术发展仍然具有重要意义。

脑机交互

人类与这个世界的沟通有很多方式,比如声音、眼神、表情、呼吸、甚至脑波,基于这些交互方式,国内外已经有一些厂商在积极尝试。

脑机交互属于人机交互技术中的一种,通过装置将人的大脑与电脑连接上,使人可以通过意念的活动来进行一些现实控制。

去年底,华盛顿大学的研究人员把部分实验者的大脑连接到一台电脑上,并要求他们玩一款简单的游戏(没有显示器、扬声器或其他刺激),实验效果很好。作为一个长远的科技项目,该实验目前还只是第一步,但这是探索人类如何通过侵入式脑刺激来与虚拟现实进行交互所迈出的重要第一步。

我有一个游戏想和你一起玩一下_第3张图片

瑞士的神经技术初创企业 MindMaze曾发布了全球第一款靠意念控制的虚拟现实游戏系统原型 MindLeap。MindLeap 融入了脑电波读取的技术,不过,MindLeap 展示的仅仅是简单的意念控制对抗游戏。游戏里面屏幕两头各有一个会伸缩的魔法球,中间则是一个小球。魔法球靠对战双方的意念控制,双方均佩戴植入前额传感器的头带,游戏目标是利用能量爆发将屏幕中央的球膨胀推开对方的球。球膨胀得越大代表脑力越强。

我有一个游戏想和你一起玩一下_第4张图片

动作捕捉

动作捕捉,简单说就是能够捕捉人全身的动作,甚至是面部细微的表情变化,通过数据处理后,还原重建成一个三维模型的“人”,而且这个三维虚拟的”人“会随着被捕捉者动作变化而变化,也就是把现实中人物的动作复制到电脑创建的虚拟人物上。

常见的动作捕捉技术是惯性动作捕捉和光学动作捕捉,前者靠穿戴惯性传感器设备实现;后者则需要贴上发光点等标志,通过对特定光点跟踪来完成运动捕捉。目前,有两种交互方式是最接近人体自然动作习惯的:一种是能实现一比一位移的动作捕捉方案,以诺亦腾为代表;另一种则是结合动作捕捉和人体工学设计的万象行动平台,以Omni和KAT Walk为代表。并且,这两类解决方案能让用户获得完全的沉浸感和高精度的动作还原,真正进入虚拟世界。

我有一个游戏想和你一起玩一下_第5张图片

手势识别

手势识别有不少优势,是比手柄更自然的一种手部交互方式,学习成本低并且可应用的场景也更丰富。目前,手势识别有两种思路:一种是通过光学追踪,一种是通过带有丰富传感器的手套或机械骨骼。

光学追踪因为不用在手上额外穿戴设备,在移动VR头显上直接集成光学追踪部件,作为移动VR交互的解决方案将是一件可行的事情。但光学追踪的缺点在于传感器的识别精度不够高,对精确到每根手指的细微动作无法识别,并且使用起来有视场的限制。

与光学追踪相比,戴在手上的手套或机械骨骼在输入精度上能有明显的提高,并且没有视场的限制,能实现力反馈的手套则交互体验更好。

我有一个游戏想和你一起玩一下_第6张图片

触觉重定向

早在现代VR出现之前,我们已经看过带有触觉反馈的不少游戏外设。但在去年,滑铁卢大学、南卡罗来纳大学和微软的研究团队开发了一些有趣的技术,能在虚拟现实中实现世界扭曲和身体扭曲。

这些技术基本上会欺骗你的感官和头脑,让你相信自己正在同时操作几个对象,但在现实中,你操作的对象只有一个。系统也可以让你认为对象处于不同的位置。两种幻觉都需要一个Kinect摄像头和一台虚拟现实头显,从而营造出“混合扭曲”。

听起来可能有点复杂。举例子讲,通过VR眼镜看到的视频中,你需要用许多的小方块去搭建一个建筑物,你一次次伸手拿起方块,放下,重新拿起方块……其实在现实里,你一直接触的只有一个小方块,但你的感觉已经被成功欺骗了。

我有一个游戏想和你一起玩一下_第7张图片

微软对此发表了一篇论文,名为“Haptic Retargeting: Dynamic Repurposing of Passive Haptics for Enhanced Virtual Reality Experiences”,其中提到:

通过适当的被动触觉提示在虚拟现实中操纵虚拟对象提供了令人满意的临在感。然而,扩展这种体验以支持多个虚拟物体是一个挑战,因为每个物体需要伴随有精确定位的触觉代理对象。

我们提出一个解决方案,通过破解人类的感知来克服这个限制。我们已经创建了一个框架以重新使用被动触觉,我们称之为“触觉重定向”(haptic retargeting),这是指当我们的感官发生冲突时,优先利用视觉的主导地位。通过触觉重定向,单个物理道具可以为多个虚拟对象提供被动触觉。

光场显示

“光场”指定空间内所有光线信息的总和,包括颜色、光线亮度、光线的方向、光线距离等等。光场显示技术除了可以像普通屏幕那样显示基本的图像信息外,还能显示景深信息,因此避免视觉系统的失衡,一定程度降低VR晕动症产生。

光场成像的原理目前主要有两种技术,分别为:光场立体视镜、微透镜阵列,各自有其优缺点。

光场立体视镜,通过多层屏幕的堆叠,但要想给予更多的景深信息,则需要堆叠更多的屏幕,这无疑会增加VR头显的体积和重量,佩戴舒适度则会降低。

微透镜阵列技术采用N个微显示屏+微透镜阵列的方式来显示画面,会对屏幕分辨率造成一定的衰减,屏幕分辨率不够画面会很模糊。为了更接近现实观看体验,微透镜阵列密度要足够大,同时又要满足高分辨率,这对于生产制造来说是一个很大的难度。

我有一个游戏想和你一起玩一下_第8张图片

IBM的技术优势

完全浸入式VRMMORPG游戏对玩家的操作及交互要求极高,就目前技术发展水平来看,不可预测什么时候才能达到『NERvGear』的体验。但IBM已经提出将会打造这样一款游戏,其底气何在?

目前可以判断的是,玩这个游戏肯定是需要特殊设备的,该设备会不会是MindLeap系统或者是IBM的VR头盔还不得而知。但由于目前的设备是不可能接近『NERvGear』水准的,小编炮认为IBM提出要打造这款游戏只是一个噱头,更有可能是吸引大众关注,积累测试者的相关用户数据,为其在虚拟现实领域的发展助力。

我有一个游戏想和你一起玩一下_第9张图片

不过既然放出了豪言,IBM这么大的厂商不放出两把刷子观众也是不会满意的。我们可以看到,在招募游戏测试者的广告中,IBM官方对志愿者的体重、身高,乃至服装都提出了要求,而且不能是眼镜用户。

这说明,IBM已经开发出一种现实人员数据扫描跟录入系统,可以把用户的身高,体重甚至服装都统一扫描进云计算中心。这个系统类似于动作捕捉,但更加高级,很可能是IBM 对健康初创大数据公司的收购并达到技术积累以后推出的。

我有一个游戏想和你一起玩一下_第10张图片

这项技术放在游戏里,也就是可以保证玩该游戏的用户在VR世界中看到的玩家跟现实世界的体貌特征是一致的,如果IBM的扫描系统足够强悍,甚至连感冒发烧等特殊状态都能表现出来,这对于打造虚拟现实沉浸感也是一个重要进步。


想要接近『NERvGear』虚拟现实VR技术的体验还有很长的路,剧场版《刀剑神域 ORDINAL SCALE》又围绕搭载增强现实AR技术机能的新型游戏设备『Augma』展开。

不知道是SAO追了现实热点,还是为了激励我们现实技术发展的进度。总之,随着更高科技的来临,游戏的体验方式可能会翻天覆地。虽然借助于VR/AR设备的游戏有着这样那样的问题,但完全不同于以往的震撼体验是公认的,这种体验便是科技变革的根本所在。2017年,VR/AR能否有令人惊喜的突破,非常值得期待。

你可能感兴趣的:(我有一个游戏想和你一起玩一下)