2-视频播放AVPlayer

1.AVPlayer

  • AVPlayer是一个用来播放基于时间的视听媒体的控制器对象,支持播放从本地,分布下载或通过HTTP Live Streaming协议得到的流媒体.AVPlayer是一个不可见组件,要将视频资源导出到用户界面目标位置,需要用到AVPlayerLayer类.
  • AVPlayer只管理一个单独资源的播放,AVQueuePlayer是AVPlayer的子类,可以管理一个资源队列.
  • AVPlayer时间监听
//定期监听
//interval:一个用于指定通知周期间隔的CMTime值
//queue:通知发送的顺序调度队列,默认主队列.
//block:一个在指定的时间间隔中将会在队列上调用的回调块.这个块传递一个CMTime值用于指示播放器的当前时间.
-(id)addPeriodicTimeObserverForInterval:(CMTime)interval queue:(nullable dispatch_queue_t)queue usingBlock:(void (^)(CMTime time))block;
//边界时间监听
//times:CMTime值组成的一个NSArray数组定义了需要通知的边界点.
//queue:通知发送的顺序调度队列,指定null为主队列
//block:每当正常播放中跨越一个边界点时就会在队列中调用这个回调块.
-(id)addBoundaryTimeObserverForTimes:(NSArray *)times queue:(nullable dispatch_queue_t)queue usingBlock:(void (^)(void))block;
  • AVPlayer一些方法和属性
//是否允许启用Airplay功能,默认YES
@property (nonatomic) BOOL allowsExternalPlayback
//跳到什么时间播放
-(void)seekToTime:(CMTime)time;
//rate ==1.0,表示正在播放;rate == 0.0,暂停;rate == -1.0,播放失败
@property (nonatomic) float rate;
//播放
-(void)play;
//暂停
-(void)pause;

2.AVPlayerLayer

AVPlayerLayer是一个相对简单的类.创建AVPlayerLayer需要一个指向AVPlayer实例的指针,这就将图层和播放器绑定在一起,保证了当播放器基于时间的方法出现时使二者保持同步.

//videoGravity有三种值可选;
//1.AVLayerVideoGravityResizeAspect:保持视频的原始宽高比,
//2.AVLayerVideoGravityResizeAspectFill:通过缩放填满层的范围区域,通常会导致视频图片被部分裁剪
//3.AVLayerVideoGravityResize:将视频内容拉伸来匹配承载层的范围,会导致视频图片扭曲
@property(copy) NSString *videoGravity;

3.AVPlayerItem

  • AVAsset模型只包含媒体资源的静态属性,这些不变的静态属性用来描述对象的静态状态.这意味着使用AVAsset对象是无法实现播放功能的.
  • AVPlayerItem会建立媒体资源动态视角的数据模型并保存AVPlayer在播放资源时呈现状态.
  • AVPlayerItem由一个或多个媒体曲目组成,由AVPlayerItemTrack类建立模型.
  • AVPlayerItemTrack实例用于表示播放器条目中的类型统一的媒体流,比如音频或视频.
  • AVPlayerItem中的曲目直接与基础AVAsset中的AVAssetTrack实例相对应.
  • AVPlayerItem 播放完成时,会发送一个AVPlayerItemDidPlayToEndTimeNotification通知,可以监听此通知做些相应的处理.
//表示一个可能不是连续的一个可用的或已经下载的时间范围数组
@property (nonatomic, readonly) NSArray *loadedTimeRanges;
//该状态表示当前媒体是否在播放队列中
@property (nonatomic, readonly) AVPlayerItemStatus status;
//创建AVPlayerItem实例时,自动载入资源的属性
+(AVPlayerItem *)playerItemWithAsset:(AVAsset *)asset automaticallyLoadedAssetKeys:(nullable NSArray *)automaticallyLoadedAssetKeys
//优化用户快进的时候程序性能的,如果前一个搜索请求没有完成,则避免出现搜索操作堆积情况的出现.
-(void)cancelPendingSeeks

-AVPlayerItem的status的AVPlayerItemStatus类型的属性,在对象创建之初,播放条目由AVPlayerItemStatusUnKnown状态开始,该状态表示当前媒体资源还未载入并且还不在播放队列中.将AVPlayerItem与AVPlayer对象进行关联就开始将媒体放入队列中,但是在具体内容可以播放前,需要等待对象的状态由AVPlayerItemStatusUnKnown变为AVPlayerItemStatusReadyToPlay.通常使用KVO机制来监视status属性的值的变化.

  • 注意:在AVPlayerItem与AVPlayer对象进行关联之前就要给status属性设置观察者.
  • 代码
static const NSString *PlayerItemStatusContext;
-(void)prepareToPlay {
    NSArray *keys = @[
        @"tracks",
        @"duration",
        @"commonMetadata",
        @"availableMediaCharacteristicsWithMediaSelectionOptions"
    ];
    self.playerItem = [AVPlayerItem playerItemWithAsset:self.asset          
                           automaticallyLoadedAssetKeys:keys];

    [self.playerItem addObserver:self                                       
                      forKeyPath:@"status"
                         options:0
                         context:&PlayerItemStatusContext];

    self.player = [AVPlayer playerWithPlayerItem:self.playerItem];  
}
-(void)observeValueForKeyPath:(NSString *)keyPath
                      ofObject:(id)object
                        change:(NSDictionary *)change
                       context:(void *)context {
    if (context == &PlayerItemStatusContext) {
        dispatch_async(dispatch_get_main_queue(), ^{    
            [self.playerItem removeObserver:self forKeyPath:@"status"];
            
            if (self.playerItem.status == AVPlayerItemStatusReadyToPlay) {
                
               NSLog(@"%@",@"载入成功,可以播放”);
                
            } else {
               NSLog(@"%@",@"Failed to load video”); 
            }
        });
    }
}

4.CMTime

  • CMTime为时间的正确表示给出了一种结构,即分数值得方式;
    -如下
typedef struct
{
    CMTimeValue value;  
    CMTimeScale timescale;  
    CMTimeFlags flags;      
    CMTimeEpoch epoch;  
} CMTime;

这个结构最关键的两个值是value和timescale.value是一个64位整数值,timescale是一个32位整数值,在时间呈现样式中分别作为分子和分母.

//0.5秒
CMTime halfsecond=CMTimeMake(1, 2);
//5秒
CMTime fivesecond=CMTimeMake(5, 1);

5.AVAssetImageGenerator创建视频的时间缩略图

  • AVAssetImageGenerator 用来从一个AVAsset视频曲目中提取图片.
  • AVAssetImageGenerator从视频资源中检索图片的方法:
//配置生成图片的尺寸
@property (nonatomic) CGSize maximumSize;
//允许在指定时间点捕捉图片.如果捕捉一张图片,此方法最合适.
-(nullable CGImageRef)copyCGImageAtTime:(CMTime)requestedTime actualTime:(nullable CMTime *)actualTime error:(NSError * __nullable * __nullable)outError
//允许按照第一个参数所指定的时间段生成一个图片序列.handler块会执行(第一个参数的个数)次
//handler块中的参数
//requestedTime:请求的最初时间
//imageRef:生成的CGImageRef
//actualTime:图片实际生成的时间.
//result:AVAssetImageGeneratorResult用来表示图片是否生成成功,表状态.
-(void)generateCGImagesAsynchronouslyForTimes:(NSArray *)requestedTimes completionHandler:(AVAssetImageGeneratorCompletionHandler)handler;

6.Airplay

  • Airplay 用无线的方式将流媒体音频和视频内容在Apple TV等上播放.
  • AVPlayer 有一个属性allowsExternalPlayback,允许启用或禁用Airplay功能,默认YES,启用.
  • Media Player框架中的MPVolumeView类来实现Airplay功能.
UIImage *airplayImage = [UIImage imageNamed:@"airplay"];
    MPVolumeView *volumeView = [[MPVolumeView alloc] initWithFrame:CGRectZero];
//隐藏音量条
    volumeView.showsVolumeSlider = NO;
    volumeView.showsRouteButton = YES;
    [volumeView setRouteButtonImage:airplayImage forState:UIControlStateNormal];
    
    [volumeView sizeToFit];
[self.view addsubview: volumeView];

7.待续

你可能感兴趣的:(2-视频播放AVPlayer)