Unity3D中XR平台了解

背景:本人从事VR开发许久,之前的SDK五花八门,目前XR平台已经出了好久,期间用过几次,这次用户使用Unity2020.3(LTS)版本,和pico neo3进行开发,通过XR完成可,射线检测的UI交互,漫游等功能更,决定系统的了解一下XR平台的工作逻辑,同时为后面更加轻松的完成SDK的替换做好基础,我决定通过三道五篇相关文章,记录开发的过程。
一.平台了解,即什么是XR,能干什么
二.配置XR的过程
三.第三方SDK的接入,计划接入两到三个硬件(Pico neo3,quest2,ViveFlows)
四.射线相关
五.UI交互相关
六.瞬移漫游相关。
以上是规划,希望可以尽快完成整个内容的探讨。
首先开始今天的工作,XR是什么?首先告诉各位一件事:官网是最牛逼的,一定要去看
官方地址: https://docs.unity.cn/cn/current/Manual/XRPluginArchitecture.html
Unity3D中XR平台了解_第1张图片
XR是什么?是把不同厂商,不同SDK进行了统一的交互封装,能够兼容市面上绝大多数的设备,可以使用插件同一个插件,完成多设备的适配,这种架构仍需要导入其他的SDK,但是你可以在导入后,使用XR提供的插件(例如 XR Interaction Toolkit)进行开发,可以有更好的通用性。
XR能干什么?可以这样解释,在最上面的DeveloperTools中,描述了MR,AR,VR,这三种技术,通过AR Foundation可以完成MR,AR的开发,通过 XR Interaction Toolkit可以完成AR和VR的开发。通过基于XR Subsystems的进一步封装,可完成不同平台开发的适配。
2022年4月6日

你可能感兴趣的:(Unity,VR,AR,unity)