最近项目需求做个播放视频功能,之前对这方面接触的也不多,阅读了一些开源播放器的源码学习了一下,总结了一些使用方法,主要讲述使用AVPlayer播放网络音乐
iOS系统中音频的四种播放方式(重点介绍前三种)
1)AVAudioPlayer 在框架里面
使用简单方便,但只能播放本地音频,不支持流媒体播放,每一个audioplayer对象就是一段音频
2) AVPlayer 也在 在框架里面
iOS 4.0以后,可以使用AVPlayer播放本地音频和支持流媒体播放,但提供接口较少,处理音频不够灵活
3)系统声音 在框架里面
音频数据文件可分为压缩和非压缩的存储类型。压缩的音频文件虽然文件体积较小(相对于非压缩的),但需要耗费处理器的性能进行解压和解码。如果音频文件体积较小,压缩后的音频文件,也不会节省较大的磁盘空间。像这一类小型非压缩的文件可以注册成为系统声音
格式为:caf/wav/aiff格式,且时长小于30s
4)音频队列
音频队列主要处理流媒体播放,提供了强大且灵活的API接口(C函数的接口),但处理起来较为复杂
1、AVAudioPlayer处理音频
// 1.获取要播放音频文件的URL
NSURL *fileURL = [[NSBundle mainBundle]URLForResource:@"刘若英 - 原来你也在这里" withExtension:@".mp3"];
// 2.创建 AVAudioPlayer 对象
AVAudioPlayer *audioPlayer = [[AVAudioPlayer alloc]initWithContentsOfURL:fileURL error:nil];
// 3.打印歌曲信息
NSString *msg = [NSString stringWithFormat:@"音频文件声道数:%ld\n 音频文件持续时间:%g",audioPlayer.numberOfChannels,audioPlayer.duration];
NSLog(@"%@",msg);
// 4.设置循环播放
audioPlayer.numberOfLoops = -1;
audioPlayer.delegate = self;
// 5.开始播放
[audioPlayer play];
2、系统声音
1、需导入引入AudioToolbox框架
2、使用实例
NSBundle *bundle = [NSBundle mainBundle];
NSString *path = [bundle pathForResource:@"44th Street Medium" ofType:@"caf"];
// 初始化本地文件url
NSURL *url = [NSURL fileURLWithPath:path];
UInt32 soundID;
// 将URL所在的音频文件注册为系统声音,soundID音频ID标示该音频
AudioServicesCreateSystemSoundID((__bridge CFURLRef)url, &soundID);
// 播放音频
AudioServicesPlaySystemSound(soundID);
//播放系统震动
AudioServicesPlaySystemSound(kSystemSoundID_Vibrate);
//销毁声音
AudioServicesDisposeSystemSoundID(soundID);
3、AVPlayer
AVPlayer存在于AVFoundation中,其实它是一个视频播放器,不仅能够播放音频,还可以播放视频,支持本地和网链,更加接近底层,定制也更加灵活。
AVPlayer首先了解一下几个常用的类:
1、AVAsset:AVAsset类专门用于获取多媒体的相关信息,包括获取多媒体的画面、声音等信息,属于一个抽象类,不能直接使用。
2、AVURLAsset:AVAsset的子类,可以根据一个URL路径创建一个包含媒体信息的AVURLAsset对象。
3、AVPlayerItem:一个媒体资源管理对象,管理者视频的一些基本信息和状态,一个AVPlayerItem对应着一个视频资源。
4、AVPlayer:播放器。
5、CMTime:是一个结构体,里面存储着当前的播放进度,总的播放时长。
1、实例化一个AVPlayer:
- (AVPlayer *)player {
if (_player == nil) {
_player = [[AVPlayer alloc] init];
_player.volume = 1.0; // 默认最大音量
}
return _player;
}
播放音频相关状态监听和移除
1、监听status,AVPlayerItemStatus有三种状态:
2、监听loadedTimeRanges,这个就是缓冲进度,可以进行缓冲进度条的设置
3、AVPlayerItemDidPlayToEndTimeNotification,注册这个通知,当播放器播放完成的时候进行回调。
4、addPeriodicTimeObserverForInterval,监听当前播放进度。
//播放音频的方法(下面会在控制器调用)
- (void)p_musicPlayerWithURL:(NSURL *)playerItemURL{
// 移除监听
[self p_currentItemRemoveObserver];
// 创建要播放的资源
AVPlayerItem *playerItem = [[AVPlayerItem alloc]initWithURL:playerItemURL];
// 播放当前资源
[self.player replaceCurrentItemWithPlayerItem:playerItem];
// 添加观察者
[self p_currentItemAddObserver];
}
- (void)p_playerAddObserver {
[self.player addObserver:self forKeyPath:@"rate" options:NSKeyValueObservingOptionOld|NSKeyValueObservingOptionNew context:nil];
[self.player addObserver:self forKeyPath:@"currentItem" options:NSKeyValueObservingOptionOld|NSKeyValueObservingOptionNew context:nil];
}
- (void)p_playerRemoveObserver {
[self.player removeObserver:self forKeyPath:@"rate"];
[self.player removeObserver:self forKeyPath:@"currentItem"];
}
- (void)p_currentItemAddObserver {
//监控状态属性,注意AVPlayer也有一个status属性,通过监控它的status也可以获得播放状态
[self.player.currentItem addObserver:self forKeyPath:@"status" options:(NSKeyValueObservingOptionOld|NSKeyValueObservingOptionNew) context:nil];
//监控缓冲加载情况属性
[self.player.currentItem addObserver:self forKeyPath:@"loadedTimeRanges" options:NSKeyValueObservingOptionOld|NSKeyValueObservingOptionNew context:nil];
//监控播放完成通知
[[NSNotificationCenter defaultCenter] addObserver:self selector:@selector(playbackFinished:) name:AVPlayerItemDidPlayToEndTimeNotification object:self.player.currentItem];
__weak typeof(self) weakSelf = self;
//监控时间进度
self.timeObserver = [self.player addPeriodicTimeObserverForInterval:CMTimeMake(1, 1) queue:dispatch_get_main_queue() usingBlock:^(CMTime time) {
NSLog(@"%@---%@",[weakSelf currentTimeStr],[weakSelf durationStr]);
}];
}
- (void)p_currentItemRemoveObserver {
[self.player.currentItem removeObserver:self forKeyPath:@"status"];
[self.player.currentItem removeObserver:self forKeyPath:@"loadedTimeRanges"];
[[NSNotificationCenter defaultCenter] removeObserver:self name:AVPlayerItemDidPlayToEndTimeNotification object:nil];
[self.player removeTimeObserver:self.timeObserver];
}
#pragma mark - KVO
- (void)observeValueForKeyPath:(NSString *)keyPath ofObject:(id)object change:(NSDictionary *)change context:(void *)context {
AVPlayerItem *playerItem = object;
if ([keyPath isEqualToString:@"status"]) {
AVPlayerItemStatus status = [change[@"new"] integerValue];
switch (status) {
case AVPlayerItemStatusReadyToPlay:
{
// 开始播放
[self play];
// 保存我听过的
// [self p_saveHistory];
// // 代理回调,开始初始化状态
// if (self.delegate && [self.delegate respondsToSelector:@selector(startPlayWithplayer:)]) {
// [self.delegate startPlayWithplayer:self.player];
// }
}
break;
case AVPlayerItemStatusFailed:
{
NSLog(@"加载失败");
}
break;
case AVPlayerItemStatusUnknown:
{
NSLog(@"未知资源");
}
break;
default:
break;
}
} else if([keyPath isEqualToString:@"loadedTimeRanges"]){
NSArray *array=playerItem.loadedTimeRanges;
//本次缓冲时间范围
CMTimeRange timeRange = [array.firstObject CMTimeRangeValue];
float startSeconds = CMTimeGetSeconds(timeRange.start);
float durationSeconds = CMTimeGetSeconds(timeRange.duration);
//缓冲总长度
NSTimeInterval totalBuffer = startSeconds + durationSeconds;
NSLog(@"共缓冲:%.2f",totalBuffer);
// if (self.delegate && [self.delegate respondsToSelector:@selector(updateBufferProgress:)]) {
// [self.delegate updateBufferProgress:totalBuffer];
// }
} else if ([keyPath isEqualToString:@"rate"]) {
float rate = self.player.rate;
NSLog(@"%f---rate",rate);
// if (self.delegate && [self.delegate respondsToSelector:@selector(player:changeRate:)]) {
// [self.delegate player:self.player changeRate:rate];
// }
} else if ([keyPath isEqualToString:@"currentItem"]) {
NSLog(@"新的currentItem");
// if (self.delegate && [self.delegate respondsToSelector:@selector(changeNewPlayItem:)]) {
// [self.delegate changeNewPlayItem:self.player];
// }
}
}
- (void)playbackFinished:(NSNotification *)notifi {
NSLog(@"播放完成");
// // 需要自动播放下一首
if (self.playingSortType == KSPlayingSortTypeSequence1) {
// 播放列表中的最后一个故事
if (self.currentVoiceIndex == self.voices.count-1) {
[self pause];
[self playAnyVoiceWithIndex:0];
dispatch_after(dispatch_time(DISPATCH_TIME_NOW, (int64_t)(0.5 * NSEC_PER_SEC)), dispatch_get_main_queue(), ^{
[self pause];
[[NSNotificationCenter defaultCenter] postNotificationName:@"kKSPlayAlreadyStopNotification" object:nil userInfo:nil];
});
} else {
[self playNext];
}
} else if (self.playingSortType == KSPlayingSortTypeSingleloop1) {
[self playAnyVoiceWithIndex:self.currentVoiceIndex];
} else {
[self playNext];
}
}