AVFoundation框架(四) - 视频的播放

视频播放

播放视频是AVFoundation的最核心功能之一,这里我们将学习创建一个自定义视频播放器.

1. 先了解关于播放功能的类

  • AVPlayer:
    AVPlayer是一个用来播放 基于时间的视听媒体 的管理对象.支持播放 本地,分布下载以及HTTP Live Streaming 协议等得到的流媒体.

AVPlayer只管理一个单独资源的播放.如果你需要播放多个或循环播放时可以使用它的子类AVQueuePlayer.

  • AVPlayerLayer:
    由于AVPlayer是一个不可见组件,所以如果要将视频资源导出到用户界面的目标位置,我们需要使用AVPlayerLayer.
    AVPlayerLayer是构建于Core Animation之上的可视化组件,是扩展了的CALayer类,作为视频内容的渲染面来在屏幕上显示视频.
    因此,创建AVPlayerLayer需要一个指向AVPlayer对象的指针,来将图层和播放器紧密绑定在一起,从而保证当播放器基于时间的方法出现时二者能保持同步.

AVPlayerLayer使用比较简单,所以供开发者自定义的地方也少.只有一个videoGravity属性.它定义了三个不同的gravity值,用来确定在承载层的范围内 视频可以拉伸或缩放的 程度.

  • AVPlayerItem:
    我们最终目的是使用AVPLayer来播放AVAsset. 但是AVAsset只包含媒体资源的不可变的静态信息.我们无法获取播放的当前时间等动态信息.所以引入AVPlayerItemAVPlayerItemTrack来构建相应的动态内容.
    AVPlayerItem会建立媒体资源动态视角的数据模型 并保存AVPlayer在播放资源时的呈现状态.

AVPlayerItem由一个或多个媒体曲目组成,跟AVAsset中AVAssetTrack对应. AVPlayerItemTrack实例则用于表示播放器条目中的类型统一的媒体流.比如音频流, 视频流.

// 应用流程
//1. 创建AVAsset
AVAsset *asset = [AVAsset assetWithURL:assetURL];
//2. 创建对应播放元素
AVPlayerItem *playerItem = [AVPlayerItem playerItemWithAsset:asset];
//3. 创建播放器
AVPlayer *player = [AVPlayer playerWithPlayerItem: playerItem];
//4. 创建视频显示的图层.
AVPlayerLayer * playerLayer = [AVPlayerLayer playerLayerWithPlayer: player];
// 最后添加图层到view上

当然,上面只是基本步骤,真正应用时还要看当前媒体是否已经加入到了播放队列中,播放器是否准备完全. 可以使用KVO监听AVPlayerItem的status属性得知.

  • 补充:CMTime
    AVPlayer和AVPlayerItem都是基于时间的对象. AVFoundation使用CMTime数据结构为时间表示. 它属于基于C的底层CoreMedia框架.使用更精确的分数格式来处理时间数据.
typedef struct {
  CMTimeValue value;
  CMTimeScale timescale;
  CMTimeFlags flags;
  CMTimeEpoch epoch; 
} CMTime; 

// 创建时间例子
CMTime halfSecond = CMTimeMake(1,2);          // 0.5s
CMTime fiveSeconds = CMTimeMake(5,1);        // 5s
CMTime time = CMTimeMake(1,44100);            // 44.1赫兹 

2. 视频播放器

2.1 创建视频视图UIView.

由上面的类介绍可知,我们要创建视频视图就是使用了AVPlayerLayer图层的UIView. 我们既可以手动创建layer并添加到UIView的原有图层,也可以重写layerClass方法自定义view的图层类型来使用. 推荐第二种方法, 这样就不用考虑图层级关系了.

// THPlayerView.m
+ (Class)layerClass {                                                       
    return [AVPlayerLayer class];
}

- (id)initWithPlayer:(AVPlayer *)player {
    if (self = [super initWithFrame:CGRectZero]) {
        self.backgroundColor = [UIColor blackColor];
        self.autoresizingMask = UIViewAutoresizingFlexibleHeight |
                                UIViewAutoresizingFlexibleWidth;
  // 使之成为AVPlayer实例视频输出的图层
        [(AVPlayerLayer *) [self layer] setPlayer:player];                  
  // THOverlayView-操作视频交互界面.
        [[NSBundle mainBundle] loadNibNamed:@"THOverlayView"                
                                      owner:self
                                    options:nil];
        
        [self addSubview:_overlayView];
    }
    return self;
}
2.2 创建视频控制器
static const NSString *PlayerItemStatusContext;

- (id)initWithURL:(NSURL *)assetURL {
    if (self = [super init]) {
  // 加载本地或远端视频资源
        _asset = [AVAsset assetWithURL:assetURL];                           
        [self prepareToPlay];
    }
    return self;
}

- (void)prepareToPlay {
    NSArray *keys = @[
        @"tracks",
        @"duration",
        @"commonMetadata",
        @"availableMediaCharacteristicsWithMediaSelectionOptions"
    ];
// iOS 7之后可自动载入资源属性.不需要再调用loadValuesAsynchronouslyForKeys
    self.playerItem = [AVPlayerItem playerItemWithAsset:self.asset          
                           automaticallyLoadedAssetKeys:keys];
// 监听 playerItem 状态是否准备完全.
    [self.playerItem addObserver:self                                       
                      forKeyPath:STATUS_KEYPATH
                         options:0
                         context:&PlayerItemStatusContext];
// 创建视频视图
    self.player = [AVPlayer playerWithPlayerItem:self.playerItem];          
    self.playerView = [[THPlayerView alloc] initWithPlayer:self.player];    
}

// KVO实现- 监听状态改变
- (void)observeValueForKeyPath:(NSString *)keyPath
                      ofObject:(id)object
                        change:(NSDictionary *)change
                       context:(void *)context {
    
    if (context == &PlayerItemStatusContext) {
        dispatch_async(dispatch_get_main_queue(), ^{     
            [self.playerItem removeObserver:self forKeyPath:STATUS_KEYPATH];
            
            if (self.playerItem.status == AVPlayerItemStatusReadyToPlay) {
/*
                // 此部分设置播放器的时间监听. 下面小结会介绍这个功能
                [self addPlayerItemTimeObserver];
                [self addItemEndObserverForPlayerItem];

             // transport 是自定义的关联属性,用来沟通交互界面和实际视频播放状态信息.
                CMTime duration = self.playerItem.duration; 
                  // 设置当前时间和视频总长.将用户界面的时间和播放媒体进行同步 .
                [self.transport setCurrentTime:CMTimeGetSeconds(kCMTimeZero)
                                      duration:CMTimeGetSeconds(duration)];
                  // 传递视频标题, AVAsset没有title属性,这是分类添加的,增加可读性.
                [self.transport setTitle:self.asset.title];                 
*/
                // 播放
                [self.player play];                                         
            } else {
                [UIAlertView showAlertWithTitle:@"Error"
                                        message:@"Failed to load video"];
            }
        });
    }
}

通过上面代码视频资源就可以播放了.但是还需要提供用户界面的控制功能,反馈信息.

2.3 时间监听

上面使用了KVO来监听播放条目的status属性,KVO确实可以监听AVPlayerItem和AVPlayer很多属性,但是对于AVPlayer的时间变化这种明显动态特性和非常高的精确度要求,KVO难以胜任.
对此AVPlayer提供了两种基于时间方法进行监听:

  • 定期监听:
    一定时间间隔获得通知(如更新时间变化,进度条的移动).
- (void)addPlayerItemTimeObserver {
    // 创建0.5s的刷新间隔
    CMTime interval =
        CMTimeMakeWithSeconds(0.5f, NSEC_PER_SEC);             
    // 一般主线程更新UI,所以用主队列.
    dispatch_queue_t queue = dispatch_get_main_queue();               
    __weak THPlayerController *weakSelf = self;                             
    void (^callback)(CMTime time) = ^(CMTime time) {
        NSTimeInterval currentTime = CMTimeGetSeconds(time);
        NSTimeInterval duration = CMTimeGetSeconds(weakSelf.playerItem.duration);
        [weakSelf.transport setCurrentTime:currentTime duration:duration];  // 回调传入最新值
    };
    
// 返回id型指针, 后面会用此移除监听器. [self.player removeTimeObserver:self.timeObserver];
    self.timeObserver =                                                     
        [self.player addPeriodicTimeObserverForInterval:interval
                                                  queue:queue
                                             usingBlock:callback];
}
  • 边界监听:
    监听视频播放视频通过自定义时间轴边界点.例如播放到25%,50%等.
    - (id)addBoundaryTimeObserverForTimes:(NSArray *)times queue:(nullable dispatch_queue_t)queue usingBlock:(void (^)(void))block;
  • 条目结束监听:
    还有一个常见监听事件就是播放完毕的时间.当视频播放完毕,AVPlayerItem会发送一个AVPlayerItemDidPlayToEndTimeNotification通知.
2.4 视频缩略图

现在流行用视频中一个或多个缩略图作为视频封面. 通过AVAssetImageGenerator类可以实现.
它定义了两个方法实现从视频资源中检索图片.:

  • - (nullable CGImageRef)copyCGImageAtTime:(CMTime)requestedTime actualTime:(nullable CMTime *)actualTime error:(NSError * _Nullable * _Nullable)outError CF_RETURNS_RETAINED; 在指定时间点捕捉图片.
  • - (void)generateCGImagesAsynchronouslyForTimes:(NSArray *)requestedTimes completionHandler:(AVAssetImageGeneratorCompletionHandler)handler; 在指定时间段生成一个图片序列.

AVAssetImageGenerator可以生成本地图片,也能生成持续下载的资源.

// 1 创建AVAssetImageGenerator
    self.imageGenerator = [AVAssetImageGenerator assetImageGeneratorWithAsset:self.asset];
    // 2. 配置生成图片大小 @2x.
    self.imageGenerator.maximumSize = CGSizeMake(200.0f, 0.0f);
    // 3. 计算视频中捕捉位置.  均分20份.
    CMTime duration = self.asset.duration;
    NSMutableArray *times = [NSMutableArray array];
    CMTimeValue increment = duration.value / 20;
    CMTimeValue currentValue = 2.0 * duration.timescale;
    while (currentValue <= duration.value) {
        CMTime time = CMTimeMake(currentValue, duration.timescale);
        [times addObject:[NSValue valueWithCMTime:time]];
        currentValue += increment;
    }

    __block NSUInteger imageCount = times.count;
    __block NSMutableArray *images = [NSMutableArray array];
    // 定义handler
    AVAssetImageGeneratorCompletionHandler handler;
    handler = ^(CMTime requestedTime, // 请求的最初时间,对应于生成图像的调用中指定的times数组中的值.
                CGImageRef imageRef, // 生成的CGImageRef.
                CMTime actualTime,   // 图片实际生成的时间.基于实际效率.
                AVAssetImageGeneratorResult result,
                NSError *error) {

        if (result == AVAssetImageGeneratorSucceeded) { // 图片生成成功.保存图片和对应时间点到thumbnail 模型中
          UIImage *image = [UIImage imageWithCGImage:imageRef];
            id thumbnail =
                [THThumbnail thumbnailWithImage:image time:actualTime];
            [images addObject:thumbnail];
        } else {
            NSLog(@"Error: %@", [error localizedDescription]);
        }

        // 每次调用减一,为0表示所有图片处理完成.
        if (--imageCount == 0) {
            dispatch_async(dispatch_get_main_queue(), ^{
                NSString *name = THThumbnailsGeneratedNotification;
                NSNotificationCenter *nc = [NSNotificationCenter defaultCenter];
                [nc postNotificationName:name object:images];
            });
        }
    };
  
  // 调用
    [self.imageGenerator generateCGImagesAsynchronouslyForTimes:times
                                              completionHandler:handler];
2.5 显示字幕

AVFoundation提供了展示和隐藏字幕的方法,AVPlayerLayer会自动渲染这些元素. 这里要使用两个类:AVMediaSelectionGroupAVMediaSelectionOption

  • AVMediaSelectionOption :表示AVAsset中备用的媒体呈现方式. 例如通常一个资源可能包含中英双音频,不同指定语言的字幕等备用选择. AVAsset有一个availableMediaCharacteristicsWithMediaSelectionOptions字符串数组属性, 保存了这些可用选项的媒体特征. 特征这些具体来说有AVMediaCharacteristicAudible(音频),AVMediaCharacteristicLegible(字幕或隐式字幕)AVMediaCharacteristicVisual(视频)三方面.
  • AVMediaSelectionGroup:而这个则作为上面类的实例容器,因为通常一个资源可以有一个和多个互斥的AVMediaSelectionOption实例可供选择.
// 检索资源备用呈现方式.(首先需要在一开始加载资源时,添加上availableMediaCharacteristicsWithMediaSelectionOptions属性.参考上面- (void)prepareToPlay 方法)
- (void)loadMediaOptions { 
// 这里只检索字幕相关的选项
    NSString *mc = AVMediaCharacteristicLegible;                            
    AVMediaSelectionGroup *group =
        [self.asset mediaSelectionGroupForMediaCharacteristic:mc];          
    if (group) {            
        for (AVMediaSelectionOption *option in group.options) {
          NSLog(@"字幕可选方式: %@", option.displayName);
        }
    } 
}
// 选择想要的呈现方式.
- (void)subtitleSelected:(NSString *)subtitle {
    NSString *mc = AVMediaCharacteristicLegible;
    AVMediaSelectionGroup *group =
        [self.asset mediaSelectionGroupForMediaCharacteristic:mc];          
    BOOL selected = NO;
    for (AVMediaSelectionOption *option in group.options) {
    // 遍历所有组选项,找到匹配你要的option.
        if ([option.displayName isEqualToString:subtitle]) {
        // 激活选择
            [self.playerItem selectMediaOption:option                       
                         inMediaSelectionGroup:group];
            selected = YES;
        }
    }
    if (!selected) {
        [self.playerItem selectMediaOption:nil                              
                     inMediaSelectionGroup:group];
    }
}

3. 整合AirPlay

AirPlay是苹果旨在用无线方式将流媒体内容在Apple TV或第三方音频系统上播放.
AVPlayer有一个allowsExternalPlayback属性,允许启用AirPlay功能,默认是YES.

  • 线路选择功能
    在播放过程中上滑就能打开系统AirPlay界面,但是其实应用内部也可以提供AirPlay线路选择界面.
UIImage *airplayImage = [UIImage imageNamed:@"airplay"];
    self.volumeView = [[MPVolumeView alloc] initWithFrame:CGRectZero];
    self.volumeView.showsVolumeSlider = NO;
    self.volumeView.showsRouteButton = YES;
    [self.volumeView setRouteButtonImage:airplayImage forState:UIControlStateNormal];
    
    [self.volumeView sizeToFit];

    NSMutableArray *items = [NSMutableArray arrayWithArray:self.toolbar.items];
    UIBarButtonItem *item = [[UIBarButtonItem alloc] initWithCustomView:self.volumeView];
    [items addObject:item];
    self.toolbar.items = items;

4. AVKit

AVKit简化了视频播放器的创建过程,它使用苹果原生的视频界面,不需要我们过多的自定义.如果你只是在项目中需要简单的播放功能,推荐使用AVKit.
iOS平台AVkit是一个简单的标准框架,只包含一个AVPlayerViewController类.用于展示并控制AVPlayer实例的播放.具有简单的界面,提供以下几个属性和方法:

AVFoundation框架(四) - 视频的播放_第1张图片
AVPlayerViewController提供的属性和方法

使用方法也十分简单

NSString * path = [[NSBundle mainBundle]pathForResource:@"iphone" ofType:@"mp4"];
NSURL *url = [NSURL fileURLWithPath:path];
AVPlayerViewController *playerVC = [[AVPlayerViewController alloc] init];
playerVC.player = [AVPlayer playerWithURL:url];
// 若要使用更多功能.
///  AVPlayerItem *playerItem = [AVPlayerItem alloc] initWithURL: url];
/// playerVC.player = [[AVPlayer alloc] initWithPlayerItem:playerItem];
[self presentViewController:play animated:YES completion:nil];

iOS 8之前提供了MPMoviePlayerController和MPMoviePlayerViewController两个类,它们提供了一种简单的方法将完整视频播放功能整合到应用中,相比较与AVKit, MPMoviePlayerController定义了一些标准播放控件,供我们选择,但是同时它将所有基础功能隐藏,让开发者无法使用AVPlayer层的更高级的基础功能.所以iOS9之后被易用.
而新的AVKit提供了一种动态播放控件,自动为用户提供最好的体验. 并且AVPlayerViewController暴露了底层AVPlayer和AVPlayerItem的接口,也支持开发者使用AVPlayer更高级的功能,

你可能感兴趣的:(AVFoundation框架(四) - 视频的播放)