你想要移动某一个角度观看,必须通过手柄或者其他设备辅助。
若头部不由自主向前移,小心被老司机嘲笑。
要想解决这问题,必须可以6 自由度(前后上下左右)移动来观看不同角度。
包括英特尔、微软、索尼都致力向这方面发展。
Lytro ImmergeVR系统解决了这个难题
包括一个光场技术的摄像头阵列,专用的服务器和编辑工具。
用户可在这 VR 场景中走动,以往是用电脑后期合成,而现在Lytro Immerge在拍摄时即可完成。
这摄像头包含数百个微小的镜头和图像传感器,可捕捉和记录周围的影像。
除了记录色彩和光线强度,还会记录光线的行进方向——这就是Lytro赖以成名的“光场”技术。
这技术能帮助VR开发者记录景深、光线方向等更多信息,也能够构建更逼真的效果。
在谷歌大会上曾展示过16个GoPro 相机阵列,我们可以想象Lytro Immerge就是5层16个GoPro阵列。
这样可随着观察者的移动,动态调节视野内的光线信息,达到真实的光影效果。
Lytro Immerge对于不同方向、角度捕捉数据获取却是轻而易举,让画面更清晰、立体。
Lytro获得 6000 万美元 D 轮融资,由 Blue Pool Capital 领投,另外还有EDBI、富士康,华谊兄弟和 Sternlicht,领投方 Blue Pool Capital 是由马云、蔡崇信等联合设立的家族财富基金。
看来马老板对 VR 和 AR 确实有浓厚的兴趣,早前已经投资了Magic Leap、Infinity AR、Lumus等VR、AR公司。
其实6自由度移动不止Lytro这间公司,还有8i 。
8i采用容积捕获方式来捕捉人物的全息影像。
其实就是通过多个摄像头对人物进行拍摄,并将画面拼接起来形成全息影像。
这个全息影像可以和任何三维 CG 场景结合。
不过小毒物觉得这样的拼接痕迹太重,看起来有点粗糙,还有不少的改进空间。
体验8i的视频,用 HTC Vive、Oculus Rift 和索尼 PlayStation VR 三大头显才能获取最佳效果。
8i也收到新一轮风投,由时代华纳领投,参投方包括百度风投、Hearst Ventures、Verizon Ventures 等。这也是百度风投建立已来的首个项目。
Lytro Immerge 在 VR 空间只有一个立方米,这样导致场景逼真程度有限。
英特尔在今年CES展上就对外演示了这种 6 自由度视频,通过与 HypeVR 合作。
英特尔用 Alloy 头显对在场的媒体演示了一段穿越到越南的 VR 视频。
这段视频不仅清晰,而且沉浸感更好,创造的VR空间有一个房间这么大。
视频帧是场景实时 3D 渲染模型,连续不停播放让用户在场景里来回走动,就像在 VR 游戏的效果。
不过,每台以6K分辨率60FPS的速率拍摄,加上每帧还有激光雷达捕捉的数据,每帧渲染时间需 6分钟。
每帧数据量就高达3GB,每30秒用 2GB(你没看错),数据量相当恐怖。
看来用体验高质量的6自由度移动的 VR 或 AR还需要很长时间,起码一般人都消费不起