一般情况下,如果我们只需要实现简单的录音功能,那我们可以使用AVAudioRecorder这个类就可以了,优点是容易使用,系统已经帮我们把功能都封装好了,缺点就是难以做更加细致的控制。
我们项目里由于涉及到音频数据编码,所以使用的是AudioQueue来实现。
实现原理:
首先看下苹果官方提供的原理图:
我们可以看到其实AudioQueue就是一个处理输入和输出过程。
AudioQueue有一个缓冲区队列,硬件设备采集到数据后,填充到缓冲区,然后我们通过回调函数拿到缓冲区的数据,依次写入文件或者进行其他操作。
实现步骤:
先定义好用到的参数:
@interface YTAudioRecordManager() {
AudioQueueRef audioQRef; //音频队列对象指针
AudioStreamBasicDescription recordFormat; //音频流配置
AudioQueueBufferRef audioBuffers[YBufferCount]; //音频流缓冲区对象
}
@property(nonatomic,strong)NSString* recordFileName; //音频目录
@property(nonatomic,assign)AudioFileID recordFileID; //音频文件标识 用于关联音频文件
@property(nonatomic,assign)SInt64 recordPacket; //录音文件的当前包
配置好音频流的采集参数以及要写入的文件路劲:
- (void)initFormat {
recordFormat.mSampleRate = YDefaultSampleRate; //采样率
recordFormat.mChannelsPerFrame = YDefalutChannel; //声道数量
//编码格式
recordFormat.mFormatID = kAudioFormatLinearPCM;
recordFormat.mFormatFlags = kLinearPCMFormatFlagIsSignedInteger | kLinearPCMFormatFlagIsPacked;
//每采样点占用位数
recordFormat.mBitsPerChannel = YBitsPerChannel;
//每帧的字节数
recordFormat.mBytesPerFrame = (recordFormat.mBitsPerChannel / 8) * recordFormat.mChannelsPerFrame;
//每包的字节数
recordFormat.mBytesPerPacket = recordFormat.mBytesPerFrame;
//每帧的字节数
recordFormat.mFramesPerPacket = 1;
}
- (void)initFile {
self.recordFileName = [YTRecordFileManager cacheFileWidthPath:@"tempRecordPath" Name:@"tempRecord.wav"] ;
NSLog(@"recordFile:%@",_recordFileName);
}
设计音频流输入信息和回调发方法,关联文件路径和AudioFileID,
- (void)initAudio {
//设置音频输入信息和回调
OSStatus status = AudioQueueNewInput(&recordFormat, inputBufferHandler, (__bridge void *)(self), NULL, NULL, 0, &audioQRef);
if( status != kAudioSessionNoError )
{
NSLog(@"初始化出错");
return ;
}
CFURLRef url = CFURLCreateWithString(kCFAllocatorDefault, (CFStringRef)self.recordFileName, NULL);
//创建音频文件
AudioFileCreateWithURL(url, kAudioFileCAFType, &recordFormat, kAudioFileFlags_EraseFile,&_recordFileID);
CFRelease(url);
//计算估算的缓存区大小
int frames = [self computeRecordBufferSize:&recordFormat seconds:YBufferDurationSeconds];
int bufferByteSize = frames * recordFormat.mBytesPerFrame;
// NSLog(@"缓存区大小%d",bufferByteSize);
//创建缓冲器
for (int i = 0; i < YBufferCount; i++){
AudioQueueAllocateBuffer(audioQRef, bufferByteSize, &audioBuffers[i]);
AudioQueueEnqueueBuffer(audioQRef, audioBuffers[i], 0, NULL);
}
self.recordPacket = 0;
}
开始录音
{
//当有音频设备(比如播放音乐)导致改变时 需要配置
[[AVAudioSession sharedInstance] setCategory:AVAudioSessionCategoryPlayAndRecord error:nil];
[[AVAudioSession sharedInstance] setActive:YES error:nil];
//开始录音
OSStatus status = AudioQueueStart(audioQRef, NULL);
if( status != kAudioSessionNoError )
{
NSLog(@"开始出错");
return;
}
self.isRecording = true;
}
回调函数处理:
void inputBufferHandler(void *inUserData, AudioQueueRef inAQ, AudioQueueBufferRef inBuffer, const AudioTimeStamp *inStartTime,UInt32 inNumPackets, const AudioStreamPacketDescription *inPacketDesc)
{
YTAudioRecordManager *audioManager = [YTAudioRecordManager sharedManager];
if (inNumPackets > 0) {
//写入文件
AudioFileWritePackets(audioManager.recordFileID, FALSE, inBuffer->mAudioDataByteSize,inPacketDesc, audioManager.recordPacket, &inNumPackets, inBuffer->mAudioData);
//记录位置
audioManager.recordPacket += inNumPackets;
//此处可以对音频数据进行采集,以供其他处理。
}
if (audioManager.isRecording) {
//把Buffer重新插回AudioQueue内置的Buffer队列中,以便循环使用
AudioQueueEnqueueBuffer(inAQ, inBuffer, 0, NULL);
}
}
停止录音:
- (void)stopRecord
{
if (self.isRecording)
{
self.isRecording = NO;
//停止录音队列和移,这里无需考虑成功与否
AudioQueueStop(audioQRef, true);
AudioFileClose(_recordFileID);
}
}
对象释放的时候销毁:
- (void)dealloc {
AudioQueueDispose(audioQRef, TRUE);
AudioFileClose(_recordFileID);
}
将录制好的本地音频进行播放:使用AudioQueue进行音频播放
github地址:https://github.com/yitezh/YTPressRecordView