ARKit+视频播放

以前玩了下vuforia的视频播放,太酷了!它的视频播放是基于上传的目标上面播放,移动目标,视频也会跟着移动。但是今天我们要研究的是基于ARKit播放视频,因为ARKit目前只支持横向平面,所以我们的视频就在ARKit检测到的平面上面播放视频。

先来看下效果:

ARVideo.gif

提供播放环境
因为我们这次视频是基于检测到的平面播放,那我们就把视频渲染到展示出来的模型上面。该模型可以自己创建一个scn文件创建一个显示屏形状的模型,这里我就用别人创建好的显示屏模型。

开始写代码
这里我就不贴出ARKit的初始化配置以及怎么展示模型的代码了,该部分尽量少废话,直接上最核心的东西:渲染视频。

首先我们要创建一个TV对象,继承自SCNNode:

@interface TVNode : SCNNode

@property(nonatomic, strong, readonly) AVPlayer *player;

@property (nonatomic, strong) SCNNode *tvNode;
@property (nonatomic, strong) SCNNode *videoRendererNode;

- (void)updateVideoNodeWithPlayer:(AVPlayer *)player;

@end

该TV对象包含一个AVPlayer的属性,用于播放视频,同时它还包含两个SCNNode类型的属性,tvNode是场景中的显示屏模型对象,videoRendererNode是播放视频的对象,videoRendererNode作为tvNode的子节点,其实tvNode就是给videoRendererNode提供大小和位置(播放环境)。
updateVideoNodeWithPlayer: 改方法更新播放视频

首先我们创建tvNode和videoRendererNode:

- (void)createTvNode {
    self.tvNode = [[SCNScene sceneNamed:@"Art.scnassets/tv_scene.scn"].rootNode childNodeWithName:kTVNode
                                                                                      recursively:NO];
    self.tvNode.geometry.firstMaterial.diffuse.contents = [[UIColor blackColor] colorWithAlphaComponent:1.0f];
    self.tvNode.movabilityHint = SCNMovabilityHintFixed;
    self.tvNode.name = kTVNode;
    
    [self addChildNode:self.tvNode];
}
- (void)createVideoRendererNode {
    self.videoRendererNode = [SCNNode new];
    
    SCNVector3 vector = [Utils getBoundingBox:self.tvNode];
    self.videoRendererNode.geometry = [SCNBox boxWithWidth:vector.x - 0.04f
                                                    height:vector.z - 0.06f
                                                    length:0.005f
                                             chamferRadius:0.0f];
    self.videoRendererNode.position = SCNVector3Make(0.0f, -0.008f, 0.01f);
    self.videoRendererNode.eulerAngles = SCNVector3Make(M_PI_2, 0.0f, 0.0f);
    self.videoRendererNode.name = kVideoRendererNode;
    
    self.videoRendererNode.geometry.firstMaterial = [self mainMaterial];
    
    [self.tvNode addChildNode:self.videoRendererNode];
    
    _currentTimeNode = [CurrentTimeNode node];
    _currentTimeNode.position = SCNVector3Make(-0.025f, -0.1f, 0.003f);
    [self.videoRendererNode addChildNode:_currentTimeNode];
}

这里代码比较简单,设置大小,位置,和默认材质。

重点来了:

- (void)updateVideoNodeWithPlayer:(AVPlayer *)player {
    // 1
    SCNMaterial *mainMaterial = [self mainMaterial];
    // 2
    [_player pause];
    [_player replaceCurrentItemWithPlayerItem:nil];
    // 3
    if (player == nil) {
        self.videoRendererNode.geometry.firstMaterial = [self mainMaterial];
        _player = nil;
    }
    // 4
    else {
        SCNMaterial *playerMaterial = [SCNMaterial new];
        _player = player;
        playerMaterial.diffuse.contents = player;
        self.videoRendererNode.geometry.materials = @[playerMaterial, mainMaterial, mainMaterial, mainMaterial, mainMaterial, mainMaterial];
        
        [_player play];
    }
}

下面一步一步解释:

  1. 获得默认材质。
  2. 恢复当前对象的_player对象
  3. 如果参数player对象为nil对象,那么我们将videoRendererNode的材质设置为默认材质,同时将_player对象设置为nil对象。
  4. 参数player对象不为nil对象,我们先初始化一个SCNMaterial对象(playerMaterial),同时将player对象保存。因为SCNMaterial的diffuse.contents接受一个id类型,也就是说任何类型的对象都可以作为材质的内容。这里我们将AVPlayer对象作为SCNMaterial的材质内容。设置好材质内容后,设置视频节点几何体的材质。上面都准备工作做好后,播放视频。

总结
其实AR视频播放并不是很难,重点就是怎么将视频渲染到模型上面。

你可能感兴趣的:(ARKit+视频播放)