WWDC ARKit 初体验

WWDC ARKit 初体验_第1张图片
图1.png

WWDC 2017全球开发者大会上,苹果公布了其第一款具有AR功能平台的iOS操作系统iOS11。ARKit 是一个全新的增强现实平台,Apple 对其的描述是 Integrate iOS device camera and motion features to produce augmented reality experiences in your app or game. (集成iOS设备的摄像头和移动特性,可以在你的应用或游戏中产生增强现实体验。)

这里来初次体验下 ARKit吧,但是有一点是要注意,想要运行 ARKit 项目,运行环境必须是 iphone 6s 及以上设备,系统是 iOS 11。 因为 ARKit是运行在 A9 和 A10 处理器上,具体的可以参照 Apple 给出描述 点击这里

打开 Xcode9 新建项目发现多了一个 Augmented Reality App 如图:

WWDC ARKit 初体验_第2张图片
图2.png

我们直接选择 Augmented Reality App 创建一个项目。打开项目可以发现选择 Augmented Reality App 已经帮我们集成了 两个库,存放模型资源的文件夹 art.scnassets 如图:
WWDC ARKit 初体验_第3张图片
图3.png

我们打开 ViewController.m 可以看到建立 3D AR 场景使用的是 ARSCNView ,打开 ARSCNView 的头文件可以看到:
WWDC ARKit 初体验_第4张图片
图4.png

ARSCNView 继承 SCNView ,如果使用过 SceneKit 库的同学使用那很容易理解 ARSCNView 使用。

  • ARSCNView A view for displaying AR experiences that augment the camera view with 3D SceneKit content. (3D场景下使用)
  • ARSKView A view for displaying AR experiences that augment the camera view with 2D SpriteKit content. (2D场景下使用)

总体来说要想显示AR效果,必须要依赖于 Apple 的游戏引擎框架( 3D 引擎 SceneKit ,2D 引擎 SpriktKit )。
SCNScene *scene = [SCNScene sceneNamed:@"art.scnassets/ship.scn"]; 创建一个场景,场景加载的资源在art.scnassets 文件夹中,这里是官方提供的 SCN 格式的文件,并且附带一张 png 的图片。当然我们也可以使用 DAE 格式的文件,使用 3DMax 设计好模型导出 DAE 格式的模型直接可以使用,使用的方式和官方的 SCN 模式一样。来看看如何载入一个 DAE 后缀的模型

WWDC ARKit 初体验_第5张图片
图5.png

选择添加 Asset Catalog 文件
WWDC ARKit 初体验_第6张图片
图6.png

将后缀改为 scnassets 将你创建的模型拖入到 scnassets 文件夹中可以发现 DAE 后缀的文件是直接支持查看的。
WWDC ARKit 初体验_第7张图片
图7.png

创建场景的方式和 SCN 后缀一样 SCNScene *cupScene = [SCNScene sceneNamed:@"horse.scnassets/file.dae"];
然后将场景赋值到 ARSCNView 上就可以显示了 self.sceneView.scene = scene;

接下来我做一个在地上或者桌子上放一个杯子,效果没有 Apple 演示的好,基本算是实现了

效果.gif

这里的杯子模型从网上下载的 SCN 文件后缀,如果你下载 DAE 后缀的文件有的模型可能是没有贴图像这样
WWDC ARKit 初体验_第8张图片
图8.png

这里顺便告诉大家如何贴图吧,左边的侧边栏有一个_3dxy 一般是模型的名称,展开后有一个个小的模块,选中一个摸块后如图选中你要贴的图
WWDC ARKit 初体验_第9张图片
图9.png

一个一个的贴上对应的图后,如果你想把 DAE 后缀的文件转换成 SCN 的文件后缀一步就可以完成。如下图操作
WWDC ARKit 初体验_第10张图片
图10.png

继续我们的如何在平面上面放一个杯子的项目吧。要让相机识别到平地首先我们要设置 ARWorldTrackingSessionConfiguration 的属性 planeDetection

ARWorldTrackingSessionConfiguration :的作用是跟踪设备的方向和位置,以及检测设备摄像头看到的现实世界的表面。这里我们将 planeDetection 设置为 ARPlaneDetectionHorizontal

- (ARWorldTrackingSessionConfiguration *)arSessionConfiguration {
    if (!_arSessionConfiguration) {
        _arSessionConfiguration = [[ARWorldTrackingSessionConfiguration alloc] init];
        _arSessionConfiguration.lightEstimationEnabled = YES;
        _arSessionConfiguration.planeDetection = ARPlaneDetectionHorizontal;
    }
    return _arSessionConfiguration;
}

设置好平面追踪后在监听 ARSCNView 的代理方法

- (void)renderer:(id )renderer
      didAddNode:(SCNNode *)node
       forAnchor:(ARAnchor *)anchor {
    if ([anchor isMemberOfClass:[ARPlaneAnchor class]]) {
        NSLog(@"捕捉到");
        
        ARPlaneAnchor *planeAnchor = (ARPlaneAnchor *)anchor;
        
        SCNBox *planeBox = [SCNBox boxWithWidth:planeAnchor.extent.x*0.2
                                         height:0
                                         length:planeAnchor.extent.x*0.2
                                  chamferRadius:0];
        
        SCNNode *planeNode = [SCNNode nodeWithGeometry:planeBox];
        planeNode.position = SCNVector3Make(planeAnchor.center.x, 0, planeAnchor.center.z);
        [node addChildNode:planeNode];
        
        //添加场景
        SCNScene *scene = [SCNScene sceneNamed:@"air.scnassets/cup/cup.scn"];
        
        SCNNode *cupNode = scene.rootNode.childNodes[0];
        cupNode.position = SCNVector3Make(planeAnchor.center.x, 0, planeAnchor.center.z);
        [node addChildNode:cupNode];
    }
}

当捕捉到平地的锚点后我们就知道该把这个杯子放在哪里了,根据平地创建 3D 模型,然后加载场景就可以了。代码没有多少一个很简单的例子,可以看出 Apple 对 ARKit 封装的很完美了,对于开发者使用起来很简单。最后附上 Demo 和相关文档查考。
Demo 下载地址

SceneKit 官方文档

ARKit 官方文档

Xcode9 下载

你可能感兴趣的:(WWDC ARKit 初体验)