以前玩了下vuforia的视频播放,太酷了!它的视频播放是基于上传的目标上面播放,移动目标,视频也会跟着移动。但是今天我们要研究的是基于ARKit播放视频,因为ARKit目前只支持横向平面,所以我们的视频就在ARKit检测到的平面上面播放视频。
先来看下效果:
提供播放环境
因为我们这次视频是基于检测到的平面播放,那我们就把视频渲染到展示出来的模型上面。该模型可以自己创建一个scn文件创建一个显示屏形状的模型,这里我就用别人创建好的显示屏模型。
开始写代码
这里我就不贴出ARKit的初始化配置以及怎么展示模型的代码了,该部分尽量少废话,直接上最核心的东西:渲染视频。
首先我们要创建一个TV对象,继承自SCNNode:
@interface TVNode : SCNNode
@property(nonatomic, strong, readonly) AVPlayer *player;
@property (nonatomic, strong) SCNNode *tvNode;
@property (nonatomic, strong) SCNNode *videoRendererNode;
- (void)updateVideoNodeWithPlayer:(AVPlayer *)player;
@end
该TV对象包含一个AVPlayer的属性,用于播放视频,同时它还包含两个SCNNode类型的属性,tvNode是场景中的显示屏模型对象,videoRendererNode是播放视频的对象,videoRendererNode作为tvNode的子节点,其实tvNode就是给videoRendererNode提供大小和位置(播放环境)。
updateVideoNodeWithPlayer: 改方法更新播放视频
首先我们创建tvNode和videoRendererNode:
- (void)createTvNode {
self.tvNode = [[SCNScene sceneNamed:@"Art.scnassets/tv_scene.scn"].rootNode childNodeWithName:kTVNode
recursively:NO];
self.tvNode.geometry.firstMaterial.diffuse.contents = [[UIColor blackColor] colorWithAlphaComponent:1.0f];
self.tvNode.movabilityHint = SCNMovabilityHintFixed;
self.tvNode.name = kTVNode;
[self addChildNode:self.tvNode];
}
- (void)createVideoRendererNode {
self.videoRendererNode = [SCNNode new];
SCNVector3 vector = [Utils getBoundingBox:self.tvNode];
self.videoRendererNode.geometry = [SCNBox boxWithWidth:vector.x - 0.04f
height:vector.z - 0.06f
length:0.005f
chamferRadius:0.0f];
self.videoRendererNode.position = SCNVector3Make(0.0f, -0.008f, 0.01f);
self.videoRendererNode.eulerAngles = SCNVector3Make(M_PI_2, 0.0f, 0.0f);
self.videoRendererNode.name = kVideoRendererNode;
self.videoRendererNode.geometry.firstMaterial = [self mainMaterial];
[self.tvNode addChildNode:self.videoRendererNode];
_currentTimeNode = [CurrentTimeNode node];
_currentTimeNode.position = SCNVector3Make(-0.025f, -0.1f, 0.003f);
[self.videoRendererNode addChildNode:_currentTimeNode];
}
这里代码比较简单,设置大小,位置,和默认材质。
重点来了:
- (void)updateVideoNodeWithPlayer:(AVPlayer *)player {
// 1
SCNMaterial *mainMaterial = [self mainMaterial];
// 2
[_player pause];
[_player replaceCurrentItemWithPlayerItem:nil];
// 3
if (player == nil) {
self.videoRendererNode.geometry.firstMaterial = [self mainMaterial];
_player = nil;
}
// 4
else {
SCNMaterial *playerMaterial = [SCNMaterial new];
_player = player;
playerMaterial.diffuse.contents = player;
self.videoRendererNode.geometry.materials = @[playerMaterial, mainMaterial, mainMaterial, mainMaterial, mainMaterial, mainMaterial];
[_player play];
}
}
下面一步一步解释:
- 获得默认材质。
- 恢复当前对象的_player对象
- 如果参数player对象为nil对象,那么我们将videoRendererNode的材质设置为默认材质,同时将_player对象设置为nil对象。
- 参数player对象不为nil对象,我们先初始化一个SCNMaterial对象(playerMaterial),同时将player对象保存。因为SCNMaterial的diffuse.contents接受一个id类型,也就是说任何类型的对象都可以作为材质的内容。这里我们将AVPlayer对象作为SCNMaterial的材质内容。设置好材质内容后,设置视频节点几何体的材质。上面都准备工作做好后,播放视频。
总结
其实AR视频播放并不是很难,重点就是怎么将视频渲染到模型上面。