在语音通话、互动直播、语音转文字类应用或者游戏中,需要采集用户的麦克风音频数据,然后将音频数据发送给其它终端或者语音识别服务。如果直接使用采集的麦克风数据,就会存在回音问题。所谓回音就是在语音通话过程中,如果用户开着扬声器,那么自己讲话的声音和对方讲话的声音(即是扬声器的声音)就会混在一起,如果没有消除对方的声音,那么对方听到的就是带有回音的声音,这样的声音就会有问题。因此采集麦克风数据后,必须要消除回音,才能得到良好的用户体验。
回音消除的英文专业术语叫Acoustic Echo Cancellation,简称AEC。如何实现回音消除,技术细节实现上是一个比较复杂的数学问题。一般手机厂商都提供了底层的回音消除技术实现,app只需要调用相关api即可。但是也不是简单的调用,需要对一些基本知识有一定的了解,比如手机上提供的音频框架有哪些、每个音频框架功能是什么、哪些框架是可以实现AEC的、实现AEC的API怎么调用、有什么注意事项等等都是我们需要关注和总结的。本文主要对iOS设备上如何实现回音消除的相关知识进行梳理。
iOS系统提供了五类音频框架,从上层到下层分别是Media Player、AV Foundation、OpenAL 、 Audio Toolbox、AudioUnit,如下图。iOS 中的所有音频技术都建立在音频单元(AudioUnit)之上。AudioUnit是所有音频框架的底层实现,像Media Player、AV Foundation、OpenAL 和 Audio Toolbox都是AudioUnit的包装,它们为特定任务提供专用和简化的 API。
基础的音频功能,例如录制和播放、音效,使用上层音频框架即可解决。只有当您需要最高要求的控制、性能或灵活性时,或者当您需要只能通过直接使用音频单元才能获得的特定功能(例如AEC)时,才需要使用AudioUnit。
当我们需要实现以下功能之一时,直接使用低层的AudioUnit,而不是通过更高级别的 API:
当前游戏中需要使用iOS音频框架来采集麦克风数据,iOS中能提供录音功能的API有AVAudioRecorder、AudioQueue以及AudioUnit。其中AVAudioRecorder只能将麦克风音频录制到文件里,而AudioQueue虽然可以实时获取麦克风音频数据,但是不提供AEC功能。因此必须选择AudioUnit来实现游戏场景中的录制音频同时消除回音。
Perpose | Audio Units |
---|---|
Effect(效果器) | iPod Equalizer(iPod均衡器) |
Mixing(混音器) | 3D Mixer (3D立体声) Multichannel Mixer (多通道混音器) |
I/O(输入输出) | Remote I/O (远端输入输出,连接麦克风和扬声器) Voice-Processing I/O (同上,增加了回声抑制等特性,适于网络语音处理) Generic Output (一般输出,输出到应用程序) |
Format conversion(格式转换) | Format Converter (格式转换器) |
iOS 4 提供了一个效果器,即iPod Equalizer,内置 iPod 应用程序使用的是同一个均衡器。使用此音频单元时,您必须提供自己的UI。此音频单元提供一组预设均衡曲线,例如Bass Booster、Pop 和 Spoken Word。
iOS 提供了两个混音器单元。一种是3D Mixer(3D混音器) ,另一种是Multichannel Mixer(多通道混音器)。3D混音器单元是构建OpenAL的基础。在大多数情况下,如果您需要3D混音器单元的功能,最好的选择是使用OpenAL,它提供了更高级的 API,非常适合游戏应用程序。多通道混音器单元为任意数量的单声道或立体声流提供混音,并带有立体声输出。您可以打开或关闭每个输入,设置其输入增益,并设置其立体声声相位置。
iOS 提供了三个 I/O 单元,分别是Remote I/O、 Voice-Processing I/O以及Generic Output 。
1、Remote I/O单元是最常用的。它连接到设备的输入和输出音频硬件(例如麦克风和扬声器),让您可以低延迟访问各个输入和传出音频样本值。它提供硬件音频格式和您的应用程序音频格式之间的格式转换,通过包含的格式转换器单元实现。
2、Voice-Processing I/O单元通过添加用于 VoIP 或语音聊天应用的声学回声消除来扩展远程 I/O 单元。它还提供自动增益校正、语音处理质量调整和静音功能。
3、Generic Output单元不连接到音频硬件,而是提供一种将处理链的输出发送到您的应用程序的机制。您通常会使用通用输出单元进行离线音频处理。
iOS 4 提供了一个Format Converter unit,通常通过 I/O 单元间接使用。
AudioUnit由Type、SubType和Manufacturer ID(制造商ID)这三个部分唯一标识。如下表所求。
Name and description | Identifier keys | Corresponding four-char codes |
---|---|---|
Format Converter Unit (支持与线性 PCM 之间的音频格式转换) | kAudioUnitType_FormatConverter kAudioUnitSubType_AUConverter kAudioUnitManufacturer_Apple |
aufc conv appl |
iPod Equalizer Unit(提供 iPod 均衡器的功能) | kAudioUnitType_Effect kAudioUnitSubType_AUiPodEQ kAudioUnitManufacturer_Apple |
aufx ipeq appl |
3D Mixer Unit(支持混合多个音频流、输出声像、采样率转换等) | kAudioUnitType_Mixer kAudioUnitSubType_AU3DMixerEmbedded kAudioUnitManufacturer_Apple |
aumx 3dem appl |
Multichannel Mixer Unit(支持将多个音频流混合到一个流中) | kAudioUnitType_Mixer kAudioUnitSubType_MultiChannelMixer kAudioUnitManufacturer_Apple |
aumx mcm xappl |
Generic Output Unit(支持与线性PCM格式相互转换;可用于启动和停止图形) | kAudioUnitType_Output kAudioUnitSubType_GenericOutput kAudioUnitManufacturer_Apple |
auou genr appl |
Remote I/O 单元 Unit(连接到设备硬件以进行输入、输出或同步输入和输出) | kAudioUnitType_Output kAudioUnitSubType_RemoteIO kAudioUnitManufacturer_Apple |
auou rioc appl |
Voice-Processing I/O Unit(具有I/O单元的特性,为双向通信增加了回声抑制) | kAudioUnitType_Output kAudioUnitSubType_VoiceProcessingIO kAudioUnitManufacturer_Apple |
auou vpio appl |
从以上AudioUnit的分类可以看出,要实现回音消除必须使用Voice-Processing I/O 这个类型的AudioUnit。
音频单元的各个部分被组织成Scope和Element,如图所示。调用函数来配置AudioUnit时,您必须指定Scope和Element以标识函数的特定目标。
配置或者控制AudioUnit的函数:
UInt32 busCount = 2;
OSStatus result = AudioUnitSetProperty (
mixerUnit,
kAudioUnitProperty_ElementCount, // the property key
kAudioUnitScope_Input, // the scope to set the property on
0, // the element to set the property on
&busCount, // the property value
sizeof (busCount)
);
Scope是AudioUnit中的编程上下文。尽管名称Global Scope可能另有含义,但这些上下文从不嵌套。
Element是嵌套在音频单元范围内的编程上下文。当一个元素是输入或输出范围的一部分时,它类似于物理音频设备中的信号总线(bus)——因此有时也称为总线。这两个术语——Element和总线(Bus)——在音频单元编程中指的是完全相同的东西。本文档在强调信号流时使用“总线”,在强调音频单元的特定功能方面时使用“元素”,例如 I/O 单元的输入和输出元素。
您通过其零索引整数值指定一个元素(或总线)。如果设置适用于整个范围的属性或参数,请将元素值指定为0。
上图说明了音频单元的一种常见架构,其中输入和输出上的元素数量相同。然而,各种音频单元使用各种架构。例如,混频器单元可能有多个输入元件,但只有一个输出元件。
全局范围的Scope如上图底部所示,适用于整个音频单元,不与任何特定音频流相关联。它只有一个元素,即元素 0。一些属性,例如每个切片的最大帧数 ( kAudioUnitProperty_MaximumFramesPerSlice),仅适用于全局范围。
IO Unit的架构图如下:
一个IO单元恰好包含两个元素,虽然这两个元素是一个音频单元的一部分,但您的应用程序将它们主要视为独立的实体。例如属性kAudioOutputUnitProperty_EnableIO
,您可以根据应用的需要来独立启用或禁用每个元素。
I/O 单元的元素 1 直接连接到设备上的音频输入硬件,在图中用麦克风表示。此硬件连接(在元素 1 的输入范围内)对您来说是不透明的。您对从输入硬件输入的音频数据的第一次访问是在元素 1 的输出范围内。
同样,I/O 单元的元素 0 直接连接设备上的音频输出硬件,如上图中的扬声器所示。您可以将音频传送到元素 0 的输入范围,但其输出范围是不透明的。
使用音频单元时,您经常会听到 I/O 单元的两个元素不是通过编号而是通过名称来描述的:
输入元素为元素1(助记符:“Input”单词中的字母“I”的外观类似于数字1)
输出元素为元素0(助记符:单词“Output”的字母“O”的外观类似于数字0)
音频单元通常在称为音频处理图的封闭对象的上下文中工作,如图所示。在此示例中,您的应用程序通过一个或多个回调函数将音频发送到图中的第一个音频单元,并对每个音频单元进行单独控制。I/O 单元的输出或任何音频处理图中的最后一个音频单元直接连接到输出硬件。
(其中EQ即Equalizer Unit(均衡器单元)缩写。)
下图是一个经典的多通道混音器单元(Multichannel Mixer Unit)和Remote IO Unit组件成的音频处理图,用于混合播放两种合成声音。先将声音输送到调音台的两个输入总线。混音器输出进入 I/O 单元的输出元件,然后将声音输出到硬件。
AudioUnit使用大致分为五个步骤:获取AudioUnit实例、设置音频参数(例如采样率、声道数等)、设置采集或输出回调、初始化AudioUnit、启动AudioUnit。
下面以Voice-Processing I/O Unit
为例来说明如何实现录音时消除回音。
有的情况下我们可以直接使用某一个AudioUnit即可完成我们的功能,有时候需要多个AudioUnit协同处理音频。
iOS 有一个 API 用于直接处理音频单元,另一个用于操作音频处理图用于多个AudioUnit协作处理音频。
要直接使用音频单元(配置和控制它们),请使用Audio Unit Component Services Reference中描述的功能。
要创建和配置音频处理图(音频单元的处理链),请使用Audio Unit Processing Graph Services Reference中描述的函数。
//AudioUnit描述
AudioComponentDescription ioUnitDescription;
//AudioUnit的主类型
ioUnitDescription.componentType = kAudioUnitType_Output;
//AudioUnit的子类型,支持回音消除
ioUnitDescription.componentSubType = kAudioUnitSubType_VoiceProcessingIO;
//AudioUnit制造商,目前只支持苹果
ioUnitDescription.componentManufacturer = kAudioUnitManufacturer_Apple;
//以下两个字段固定是0
ioUnitDescription.componentFlags = 0;
ioUnitDescription.componentFlagsMask = 0;
以上设置可以唯一标识一个AudioUnit,下面开始获取AU实例。
//查找AudioComponent
//第一个参数传递NULL,告诉此函数使用系统定义的顺序查找匹配的第一个系统音频单元
AudioComponent foundIoUnitReference = AudioComponentFindNext (NULL,&ioUnitDescription);
//需要实例化的AudioUnit
AudioUnit ioUnitInstance;
//实例化AudioUnit
AudioComponentInstanceNew(foundIoUnitReference,&ioUnitInstance);
AudioComponent 即音频组件,代表一种类型的AudioUnit。它用来实例化一个AudioUnit,一个AudioComponent可以用来实例化多个AudioUnit,类似于面向对象编程中类与对象的关系。
当需要使用多个AudioUnit协同工作时需要使用AuGraph,只使用一个AudioUnit建议使用上面的方式。
// Declare and instantiate an audio processing graph
AUGraph processingGraph;
NewAUGraph (&processingGraph);
// Add an audio unit node to the graph, then instantiate the audio unit
AUNode ioNode;
AUGraphAddNode (
processingGraph,
&ioUnitDescription,
&ioNode
);
AUGraphOpen (processingGraph); // indirectly performs audio unit instantiation
// Obtain a reference to the newly-instantiated I/O unit
AudioUnit ioUnit;
AUGraphNodeInfo (
processingGraph,
ioNode,
NULL,
&ioUnit
);
接下来需要设置AudioUnit的基本参数,比如采样率、声道数、采样深度等。
AudioStreamBasicDescription mAudioFormat;
mAudioFormat.mSampleRate = 16000;//按照需要设置采样率,越大声音越精细,人声16000足够
mAudioFormat.mFormatID = kAudioFormatLinearPCM;
mAudioFormat.mFormatFlags = kAudioFormatFlagIsSignedInteger | kAudioFormatFlagIsPacked;
mAudioFormat.mReserved = 0;
mAudioFormat.mChannelsPerFrame = 1;//声道数
mAudioFormat.mBitsPerChannel = 16;//采样深度
mAudioFormat.mFramesPerPacket = 1;//每个包有多少帧
//每帧有多少字节
mAudioFormat.mBytesPerFrame = (mAudioFormat.mBitsPerChannel / 8) * mAudioFormat.mChannelsPerFrame; // 每帧的bytes数2
//每个包有多少字节
mAudioFormat.mBytesPerPacket = mAudioFormat.mFramesPerPacket*mAudioFormat.mBytesPerFrame;//每个包的字节数2
UInt32 size = sizeof(mAudioFormat);
//CheckError是检查错误码的函数,如果有异常,打印后面的字符串
CheckError(AudioUnitSetProperty(remoteIOUnit,
kAudioUnitProperty_StreamFormat,
kAudioUnitScope_Output,
1,
&mAudioFormat,
size),
"kAudioUnitProperty_StreamFormat of bus 1 failed");
CheckError(AudioUnitSetProperty(remoteIOUnit,
kAudioUnitProperty_StreamFormat,
kAudioUnitScope_Input,
0,
&mAudioFormat,
size),
"kAudioUnitProperty_StreamFormat of bus 0 failed");
//定义音频输入回调
OSStatus AudioInputCallback(void *inRefCon,
AudioUnitRenderActionFlags *ioActionFlags,
const AudioTimeStamp *inTimeStamp,
UInt32 inBusNumber,
UInt32 inNumberFrames,
AudioBufferList *__nullable ioData) {
AudioUnitRecorder *recorder = (__bridge AudioUnitRecorder *)inRefCon;
AudioBuffer buffer;//创建音频缓冲
UInt32 size = inNumberFrames * recorder->mAudioFormat.mBytesPerFrame;
buffer.mDataByteSize = size; //定义缓冲大小
buffer.mNumberChannels = 1; //声道数
buffer.mData = malloc(size); //申请内存
AudioBufferList bufferList;//创建缓冲数组
bufferList.mNumberBuffers = 1;//只需要一个音频缓冲
bufferList.mBuffers[0] = buffer;//给数组元素赋值
OSStatus status = noErr;
//调用AudioUnitRender函数获取麦克风数据,存入上面创建的AudioBufferList中。
status = AudioUnitRender(recorder->remoteIOUnit, ioActionFlags, inTimeStamp, 1, inNumberFrames, &bufferList);
//有异常则中断
if (status != noErr) {
printf("AudioUnitRender %d \n", (int)status);
return status;
}
//这里将麦克风音频放入一个缓存区,提供给阿里云语音识别SDK
if(recorder.isStarted){
NSData *frame = [recorder _bufferPCMFrame:&buffer];//缓存PCM音频
if(frame){
//缓存满了就把数据交给阿里云SDK
[recorder _handleVoiceFrame:frame];
}
}else{
NSLog(@"WARN: audio, - recorder is stopped, ignoring the callback data %d bytes",(int)buffer.mDataByteSize);
}
//释放内存
free(buffer.mData);
return status;
}
采集麦克风数据需要设置输入回调:kAudioOutputUnitProperty_SetInputCallback
在回调里获取麦克风音频。当前需要采集麦克风音频,因此使用的是这个回调。
AURenderCallbackStruct callbackStruct;
callbackStruct.inputProc = AudioInputCallback;//AudioInputCallback是上面定义的回调函数
callbackStruct.inputProcRefCon = (__bridge void *)(self);
OSStatus status = AudioUnitSetProperty(remoteIOUnit, kAudioOutputUnitProperty_SetInputCallback, kAudioUnitScope_Output, 0, &callbackStruct, sizeof(callbackStruct));
//CheckError是检查错误码的函数,如果有异常,打印后面的字符串
CheckError(status, "SetInputCallback error");
如果是播放一个音频文件或URL,需要设置渲染回调:kAudioUnitProperty_SetRenderCallback,在回调里提供音频流。
CheckError(AudioUnitInitialize(remoteIOUnit),"AudioUnitInitialize error");
CheckError(AudioOutputUnitStart(remoteIOUnit),"AudioOutputUnitStart error");
启动这个AudioUnit之后,就可以在回调里获取消除了设备回音的麦克风数据。
在使用AudioUnit之前,先要正确设置AudioSession,否则AudioUnit无法正常工作。
iOS是通过AudioSession来管理应用内、应用之间、设备级别的音频行为。如下图所示。
在使用系统音频功能之前,需要告诉系统打算如何在您的应用程序中使用音频。AudioSession充当您的应用程序和操作系统之间的中介,进而是底层音频硬件。您可以使用它向操作系统传达应用音频的性质,而无需详细说明特定行为或所需的与音频硬件的交互。将这些细节的管理委托给音频会话可确保对用户的音频体验进行最佳管理。
通过AVAudioSession实例来与应用的AudioSession进行交互。
使用步骤如下:
//获取AudioSession实例
AVAudioSession *audioSession = [AVAudioSession sharedInstance];
//设置音频行为是播放和录音同时进行,默认只允许播放。
[audioSession setCategory:AVAudioSessionCategoryPlayAndRecord withOptions:AVAudioSessionCategoryOptionDefaultToSpeaker|AVAudioSessionCategoryOptionAllowBluetooth error:nil];
//缓冲时间0.02秒,这个决定了AudionUnit音频回调时的inNumberFrames的大小。
[audioSession setPreferredIOBufferDuration:0.02 error:nil];
//激活音频会话
[audioSession setActive:YES error:nil];
//监听耳机变化
[[NSNotificationCenter defaultCenter] addObserver:self selector:@selector(audioRouteChangeListenerCallback:) name:AVAudioSessionRouteChangeNotification object:audioSession];
录音同时播放时需要使用这个Category:AVAudioSessionCategoryPlayAndRecord
,它默认会从听筒输出音频,因此需要添加打开扬声器的option:AVAudioSessionCategoryOptionDefaultToSpeaker
,并添加允许中途插入耳机的option:AVAudioSessionCategoryOptionAllowBluetooth
关于AudioSessionCategory的种类及行为特点,可以参考:
AudioSessionCategory的种类及行为特点
参考文献:
https://developer.apple.com/library/archive/documentation/MusicAudio/Conceptual/AudioUnitHostingGuide_iOS/Introduction/Introduction.html