unity运行google谷歌的ARCore depth API的案例效果

unity运行google谷歌的ARCore depth API的案例效果_第1张图片

惊呆了,google竟然发布了新的ARCore的depth API的SDK,这个据说是

没有  没有  没有

采用硬件的深度或 3D ToF传感器来完成,带有深度信息可以遮挡的效果

在6月29日看了官方公众号的一个文章中,看到了一个Flag:

ARCore 是 Google 为开发者构建的增强现实平台,如何让虚拟物体和真实世界完美融合,这一直是 Google ARCore 技术所探讨的问题。众所周知,当虚拟物体附近有现实物体时,有可能会出现互相交融、重叠等效果,大大地影响了用户体验。这一直是 AR 技术的难点,也是 Google 不懈努力的方向。今天 ARCore 给出了这一难题的答案。

ARCore开发者将凭借 Google 动态深度算法和一颗 RGB 摄像头就可创建出深度图,然后加上ARCore原本的性能。呈现用户以有深度信息的效果。

看他们的效果:

看到他们的ARCore已经更新了1.18

数据在GitHub上面,我们可以通过这个码云下载学习:

https://gitee.com/shenty88/arcore-unity-sdk.git


unity运行google谷歌的ARCore depth API的案例效果_第2张图片

下载了sdk尝试安装体验了下。

对了,这个depth API对手机是有限制的,支持arcore的手机基础上有一波无效了


unity运行google谷歌的ARCore depth API的案例效果_第3张图片

我使用的是荣耀10,有效果,可真是的烫啊,好烫。来看下自己手机的效果,这个是2018年时候的手机,到今天是否可以坚挺支持ARCore:



ARcore的depthAPI有些效果

效果分析:

1,首先手机运行1分钟左右,已经变的超级无敌烫了,感觉可以回家煎蛋了

2,运行效果中,是有遮挡效果的,有像是做了mask遮罩效果,有时候像是模型自己隐身的效果

3,运行有depth API的效果的时候,手机画面有摄像机看到画面的浅浅的印象,是手机性能?是SDK效果?我已经傻傻分不清楚

  以上是为个人非专业测试效果,可能是是手机影响,可能是自己操作不合理效果。

整体感觉,通过移动终端的普通摄像头的AR效果,使用相机图像RGB的信息来处理z轴深度的还是不错的。这个是抛离了必须使用深度或 3D ToF传感器的宿命。

也算是一个不不错的创新。But,希望可以更完善些。AR行业需要你。

你可能感兴趣的:(unity运行google谷歌的ARCore depth API的案例效果)