安卓渲染音频PCM之OpenSL ES

前言

前面学习了如何通过AudioTrack渲染PCM音频数据,本文学习如何通过通过OpenSL ES播放PCM文件中的裸音频;OpenSL ES是垮平台的音频处理库,它处于native层,灵活性比较大。

目标

实现OpenSL ES渲染PCM数据,这里播放的PCM文件是通过ffmpeg解码到文件后的裸数据进行模拟

准备

1、笔者这里开发环境为Mac 10.14.4,android studio为3.3.2;
2、配置android studio中的c++环境,具体参考官网,在这里贴一下我这边的Cmakelists.txt配置文件

cmake_minimum_required(VERSION 3.4.1)

# ding yi cpp yuan wen jian mulu bian liang
set(SRC_DIR ${PROJECT_SOURCE_DIR}/src/main/cpp)
set(COMMON_DIR ${SRC_DIR}/common)
set(OPENSLES_DIR ${SRC_DIR}/opensles)

# she zhi cpp yuan ma mu lu
aux_source_directory(${SRC_DIR} src_cpp)
aux_source_directory(${COMMON_DIR} com_cpp)
aux_source_directory(${OPENSLES_DIR} opensles_cpp)

# she zhi .h tou wen jian mu lu
include_directories(${COMMON_DIR})
include_directories(${OPENSLES_DIR})

# yin ru android log ku
find_library( # Sets the name of the path variable.
              log-lib

              # Specifies the name of the NDK library that
              # you want CMake to locate.
              log )

# ding yi jiang gai ku da bao jin app de lei xing
add_library(adMedia SHARED
        ${src_cpp}
        ${com_cpp}
        ${opensles_cpp}
        )
target_link_libraries(adMedia android log
        OpenSLES
        mediandk
        ${log-lib}
    )

app下的build.gradle的c++部分配置代码

android {
    compileSdkVersion 28
    defaultConfig {
        applicationId "com.media"
        minSdkVersion 23
        targetSdkVersion 28
        versionCode 1
        versionName "1.0"
        testInstrumentationRunner "android.support.test.runner.AndroidJUnitRunner"
        // 对于abi的这个配置,一定要放在defaultConfig{}里面,否则会报错
        ndk {
            abiFilters 'armeabi-v7a','arm64-v8a'
        }
    }
    externalNativeBuild {
        cmake {
            path file('CMakeLists.txt')
        }
    }
    buildTypes {
        release {
            minifyEnabled false
            proguardFiles getDefaultProguardFile('proguard-android-optimize.txt'), 'proguard-rules.pro'
        }
    }
}

对于abi的配置,一定要放在defaultConfig{}里面,否则会报错,如上注释。

使用OpenSL ES

必须要引用头文件

// 这是标准的OpenSL ES库
#include 
// 这里是针对安卓的扩展,如果要垮平台则需要注意
#include 

1、初始化OpenSL ES引擎对象

    // 用于OpenSL ES的各种操作结果;SL_RESULT_SUCCESS表示成功
    SLresult  result;

    // 1、创建OpenSL ES对象
    // OpenSL ES for Android is designed to be thread-safe,
    // so this option request will be ignored, but it will
    // make the source code portable to other platforms.
    SLEngineOption options[] = {{SL_ENGINEOPTION_THREADSAFE,SL_BOOLEAN_TRUE}};
    // 创建引擎对象
    result = slCreateEngine(&slObject,
                   ARRAY_LEN(options),
                   options,
                   0, // no interfaces
                   NULL,// no interfaces
                   NULL // no required
    );
    if (result != SL_RESULT_SUCCESS) {
        LOGD("slCreateEngine fail %lu",result);
    }

对于slObject对象,安卓默认创建时就是线程安全的,不需要options[]这个选项。
2、实例化对象

// 2、实例化SL对象。就像声明了类变量,还需要初始化一个实例;阻塞方式初始化实例(第二个参数表示阻塞还是非阻塞方式)
    result = (*slObject)->Realize(slObject, SL_BOOLEAN_FALSE);
    if (result != SL_RESULT_SUCCESS) {
        LOGD("Realize fail %lu",result);
    }

3、获取引擎对象接口

// 3、获取引擎接口对象,必须在SLObjectItf对象实例化以后获取
    result = (*slObject)->GetInterface(slObject, SL_IID_ENGINE, &engineObject);
    if (result != SL_RESULT_SUCCESS) {
        LOGD("GetInterface fail %lu",result);
    }

可以看到,OpenSL ES类,实例,接口三者的使用规律。首先创建类,然后初始化一个改类的实例,然后再获取该类的接口,接口对应着一个具体的功能。后面要使用的音频播放组件也是这个流程
要想正常播放音频,还需要两个相关组件,分别是混音器,音频组件。这里介绍一下,混音器组件才是正在实现播放音频功能的,音频组件负责通过回调从app获取音频数据。下面分别介绍如何初始化混音器和将混音器与音频组件串联起来
4、混音器

 /** 第二步 创建混音器;她可能不仅仅代表的是声音效果器,它默认是进行音频的播放输出,音频播放必不可少的组件;
     * CreateOutputMix()参数说明如下:
     * 参数1:引擎接口对象
     * 参数2:混音器对象地址
     * 参数3:组件的可配置属性ID个数;如果为0后面两个参数忽略;不同的组件,所拥有的属性种类和个数也不一样,如果某个组件不支持某个属性,GetInterface将
     * 返回SL_RESULT_FEATURE_UNSUPPORTED
     * 参数4:需要配置的属性ID,数组
     * 参数5:配置的这些属性ID对于组件来说是否必须,数组,与参数4一一对应
     * */
    // 这里只是进行简单的音频播放输出,所以不创建任何混音效果的属性ID,第三个参数传0即可
    result = (*engineItf)->CreateOutputMix(engineItf,&outputMixObject,0,NULL,NULL);
    if (result != SL_RESULT_SUCCESS) {
        LOGD("CreateOutputMix fail %d",result);
    }
    // 实例化混响器,创建功能组件类型后还需要实例化;OpenSL ES
    result = (*outputMixObject)->Realize(outputMixObject,SL_BOOLEAN_FALSE);
    if (result != SL_RESULT_SUCCESS) {
        LOGD("Realize outputMixObject fail %d",result);
    }

5、创建音频组件并和混音器串联起来

/** SLDataLocator_AndroidSimpleBufferQueue 表示数据缓冲区的结构,用来表示一块缓冲区
     * 1、第一个参数必须是SL_DATALOCATOR_ANDROIDSIMPLEBUFFERQUEUE
     * 2、第二个参数表示队列中缓冲区的个数,这里测试1 2 3 4都可以正常。
     * */
    SLDataLocator_AndroidSimpleBufferQueue android_queue={SL_DATALOCATOR_ANDROIDSIMPLEBUFFERQUEUE,2};
    SLuint32 chs = getChannel_layout_Channels(fChannel_layout);
    SLuint32 ch = getChannel_layout_Type(fChannel_layout);
    SLuint32 sr = getSampleRate(fSample_rate);
    SLuint32 fo = getPCMSample_format(fSample_format);
    LOGD("声道数 %d 声道类型 %d 采样率 %d 采样格式 %d",chs,ch,sr,fo);
    SLDataFormat_PCM pcm={
            SL_DATAFORMAT_PCM,//播放pcm格式的数据
            chs,//声道个数
            sr,//采样率
            fo,//位数
            fo,//和位数一致就行
            ch,//立体声(前左前右)
            SL_BYTEORDER_LITTLEENDIAN//数据存储是小端序
    };
    /** SLDataSource 表示输入缓冲区,和输出缓冲区一样,它由数据类型和数据格式组成
     * 1、参数1;指向指定的数据缓冲区,SLDataLocator_xxx结构体定义,可取值如下:
     *      SLDataLocator_Address
     *      SLDataLocator_BufferQueue   (一块数据缓冲区,对于安卓来说是SLDataLocator_AndroidSimpleBufferQueue)
     *      SLDataLocator_IODevice
     *      SLDataLocator_MIDIBufferQueue
     *      SLDataLocator_URI
     * 2、参数2;表示缓冲区中数据的格式,可取值如下:
     *      SLDataFormat_PCM
     *      SLDataFormat_MIME
     *   其中如果第一个参数是SLDataLocator_IODevice,此参数忽略,传NULL即可
     * */
    SLDataSource slDataSource = {&android_queue, &pcm};

    SLDataLocator_OutputMix outputMix = {SL_DATALOCATOR_OUTPUTMIX,outputMixObject};
    /** SLDataSink 表示了输出缓冲区,包括数据类型和数据格式
     * 1、参数1;指向指定的数据缓冲区类型,一般由SLDataLocator_xxx结构体定义,可取值如下:
     *      SLDataLocator_Address
     *      SLDataLocator_IODevice
     *      SLDataLocator_OutputMix         (混音器,代表着音频输出)
     *      SLDataLocator_URI
     *      SLDataLocator_BufferQueue       (一块数据缓冲区,对于安卓来说是SLDataLocator_AndroidSimpleBufferQueue)
     *      SLDataLocator_MIDIBufferQueue
     * 2、参数2;表示缓冲区中数据的格式,可取值如下:
     *      SLDataFormat_PCM
     *      SLDataFormat_MIME
     *    其中如果第一个参数是SLDataLocator_IODevice或SLDataLocator_OutputMix,此参数忽略,传NULL即可
     * 住:我们要做的只是给定缓冲区类型和缓冲区中数据格式即可,系统自动为我们分配内存
     * */
    SLDataSink audioSink = {&outputMix, NULL};


    /** 第三步,创建AudioPlayer组件;该组件必须要有输入数据缓冲区(提供要播放的音频数据),输出数据缓冲区(硬件最终从这里获取数据)、
     * 一个音频数据中间缓冲区(由于应用无法直接向输入数据缓冲区写入数,是通过这个缓冲区间接写入的,所以必须要有这样一个缓冲区)和可选属性(比如控制音量等等)
     *  参数1:openSL es引擎接口
     *  参数2:AudioPlayer组件对象
     *  参数3:输入缓冲区地址
     *  参数4:输出缓冲区地址
     *  参数5:属性ID个数
     *  参数6:属性ID数组
     *  参数7:属性ID是否必须数组
     *  备注:可以看到 输入和输出缓冲区是通过参数3和4直接配置,而音频数据中间缓冲区是通过属性ID方式配置
     *
     *  audio player的数据驱动流程为:首先播放系统从audioSnk要数据进行播放,而audioSnk又从audioSrc要音频数据,audioSrc中数据是通过ids1中配置的回调函数不停的往
     *  其中写入数据,这样整个播放流程就理顺了。
     *  1、CreateAudioPlayer()第五个参数不能为0,否则audioSrc将没有数据送给audioSnk
     *  2、要写入数据的回调函数在单独的线程中,大概每12ms-20ms定期调用。
     * */
    const SLInterfaceID ids[1] = {SL_IID_BUFFERQUEUE};
    const SLboolean req[1] = {SL_BOOLEAN_TRUE};
    result = (*engineItf)->CreateAudioPlayer(engineItf, &playerObject, &slDataSource, &audioSink, 1, ids, req);
result = (*playerObject)->Realize(playerObject, SL_BOOLEAN_FALSE);
//    注册回调缓冲区 获取缓冲队列接口
    result = (*playerObject)->GetInterface(playerObject, SL_IID_BUFFERQUEUE, &pcmBufferQueueItf);
    //注册缓冲接口回调,开始播放后,此函数将
    result = (*pcmBufferQueueItf)->RegisterCallback(pcmBufferQueueItf, SLAudioPlayer::pcmBufferCallBack, this);
    if (result != SL_RESULT_SUCCESS) {
        LOGD("RegisterCallback fail %d",result);
    }

    // 获取音量接口 用于设置音量
//    (*playerObject)->GetInterface(playerObject, SL_IID_VOLUME, &volInf);
//    (*volInf)->SetVolumeLevel(volInf,100*50);

    //    得到接口后调用  获取Player接口
    result = (*playerObject)->GetInterface(playerObject, SL_IID_PLAY, &playerInf);
//    开始播放
    result = (*playerInf)->SetPlayState(playerInf, SL_PLAYSTATE_PLAYING);
    if (result != SL_RESULT_SUCCESS) {
        LOGD("SetPlayState fail %d",result);
    }

整个串联的过程为:
首先播放系统从audioSnk要数据进行播放,而audioSnk又从audioSrc要音频数据,audioSrc中数据是通过ids1中配置的回调函数pcmBufferCallBack不停的往其中写入数据,这样整个播放流程就理顺了。
6、app向OpenSL ES输送数据
和AudioTrack一样,必须开启一个单独的线程作为app向OpenSL ES输送数据的工作线程,这里要注意的就是OpenSL ES只支持16位和32位的整数型音频数据,小端序。回调函数pcmBufferCallBack是一个不同于这里工作线程的渲染线程,所以这里要有线程同步的机制,这里用pthread_mutex_t和pthread_con_t实现。

/**  outBufSamples:是一个固定的数值;表示每次发往音频数据缓冲区的采样个数
  *  outputBuffer:是一个包含两个缓冲区的内存块,这是一个巧妙的设计。即保证了不频繁创建内存,又保证了内存中数据的安全。(具体过程为:当一个缓冲区数据通过Enqueue
  *  函数输送给OpenSL ES时,那么应用端再没有收到OpenSL ES缓冲区回调接口需要数据的回调时,此内存块就不能再使用,所以就用另外一块缓冲区,如果另外一块缓冲区也被
  *  应用填满了数据还没有收到OpenSL ES缓冲区回调接口需要数据的回调怎么办?说明OpenSL ES比较忙,暂时不需要数据,应用端一直阻塞知直到收到通知)
  *  currentOutputIndex:表示目前应用端填充数据的缓冲区下个填充数据位置
  *  currentOutputBuffer:表示目前应用端使用的是哪一个缓冲区
 **/
void SLAudioPlayer::putAudioData(char * buff,int size)
{
    // 从上一次位置开始填充数据
    int indexOfOutput = currentOutputIndex;

    if (fSample_format == Sample_format_SignedInteger_8) {
        char *newBuffer = (char *)buff;
        char *useBuffer = outputBuffer[currentOutputBuffer];

        for (int i = 0; i < size; ++i) {
            useBuffer[indexOfOutput++] = newBuffer[i];
            if (indexOfOutput >= outBufSamples) {   // 说明填满了一个缓冲区,则发送给OpenSL ES

                // 发送之前需要得到可以发送的条件
                waitThreadLock();

                // 发送数据
                (*pcmBufferQueueItf)->Enqueue(pcmBufferQueueItf,useBuffer,outBufSamples* sizeof(char));

                // 换成另外一个缓冲区
                currentOutputBuffer = currentOutputBuffer?0:1;
                indexOfOutput = 0;
                useBuffer = outputBuffer[currentOutputBuffer];
            }
        }

        // 更新上一次位置
        currentOutputIndex = indexOfOutput;

    } else if (fSample_format == Sample_format_SignedInteger_16) {
        short *newBuffer = (short *)buff;
        short *useBuffer = (short *)outputBuffer[currentOutputBuffer];

        for (int i = 0; i < size; ++i) {
            useBuffer[indexOfOutput++] = newBuffer[i];
            if (indexOfOutput >= outBufSamples) {   // 说明填满了一个缓冲区,则发送给OpenSL ES
                LOGD("被阻塞");
                // 发送之前需要得到可以发送的条件
                waitThreadLock();
                LOGD("阻塞完成");
                // 发送数据
                (*pcmBufferQueueItf)->Enqueue(pcmBufferQueueItf,useBuffer,outBufSamples* sizeof(short));

                // 换成另外一个缓冲区
                currentOutputBuffer = currentOutputBuffer?0:1;
                indexOfOutput = 0;
                useBuffer = (short *)outputBuffer[currentOutputBuffer];
            }
        }

        // 更新上一次位置
        currentOutputIndex = indexOfOutput;

    } else if (fSample_format == Sample_format_SignedInteger_32) {
        int *newBuffer = (int *)buff;
        int *useBuffer = (int *)outputBuffer[currentOutputBuffer];

        for (int i = 0; i < size; ++i) {
            useBuffer[indexOfOutput++] = newBuffer[i];
            if (indexOfOutput >= outBufSamples) {   // 说明填满了一个缓冲区,则发送给OpenSL ES

                // 发送之前需要得到可以发送的条件
                waitThreadLock();

                // 发送数据
                (*pcmBufferQueueItf)->Enqueue(pcmBufferQueueItf,useBuffer,outBufSamples* sizeof(int));

                // 换成另外一个缓冲区
                currentOutputBuffer = currentOutputBuffer?0:1;
                indexOfOutput = 0;
                useBuffer = (int*)outputBuffer[currentOutputBuffer];
            }
        }

        // 更新上一次位置
        currentOutputIndex = indexOfOutput;
    }
}

7、释放资源

** 释放 OpenSL ES资源,
 *  由于OpenSL ES的内存是由系统自动分配的,所以释放内存时只需要调用Destroy释放对应的SLObjectItf对象即可,然后它的属性ID接口对象直接置为NULL
 * */
void SLAudioPlayer::closeAudioPlayer() {
    LOGD("closeAudioPlayer()");
    // 释放音频播放器组件对象
    if (playerObject != NULL) {
        (*playerObject)->Destroy(playerObject);
        playerObject = NULL;
        playerInf = NULL;
        volInf = NULL;
        pcmBufferQueueItf = NULL;
    }

    // 释放混音器组件对象
    if (outputMixObject != NULL) {
        (*outputMixObject)->Destroy(outputMixObject);
        outputMixObject = NULL;
    }

    // 释放OpenSL ES引擎对象
    if (slContext != NULL) {
        slContext->releaseResources();
        slContext = NULL;
    }

    destroyBuffers();
    destroyThreadLock();
}

总结:

audio player的数据驱动流程为:首先播放系统从audioSnk要数据进行播放,而audioSnk又从audioSrc要音频数据,audioSrc中数据是通过ids1中配置的回调函数不停的往其中写入数据,这样整个播放流程就理顺了。

项目地址

Demo
)

相关文档

安卓官网
官网示例代码

OpenSL ES官网

你可能感兴趣的:(安卓渲染音频PCM之OpenSL ES)