最早我是在Android上开发的OpenSL ES。但最近看了下鸿蒙的文档,发现它的底层库也支持OpenSL ES,这我的兴致就来了。简单了解了一下鸿蒙的Native开发,就着手开发起来。移植过程中发现其实对Android程序员还是相当友好的,从Android上移植到鸿蒙并没有太大的改动。这篇文章主要讲的是通以OpenSL ES开发为切入点,鸿蒙怎么进行基本的Native开发。Demo是实现一个录音机,完成录音和播放录音功能。
鸿蒙的开发工具和AndroidStudio及其类似,毕竟来自同一家公司的开源,所以使用上也大致差不多,入门成本不高。创建一个native app和AndroidStuio的也类似,在创建项目模板的界面选择Native C++,完成一系列的的项目类型、名称、路径等等配置后就创建了我们的第一个Native C++
如果你是第一次创建Native项目可能会要你下载开发工具包,那么请你去设置里检查你的这三个选项是否都勾选上了并安装了,主要是第三个选项Native
项目结构和Android类似,在main路径下比普通的项目多出一个cpp,里面有一个CMakeList和一个返回helloworld的CPP文件,这里就涉及到JNI的内容,如果对JNI不熟悉的可以先去看看我的上一篇博文JNI常用开发技巧,在这我就不再讲CMakeList怎么编写和JNI的流程规范了。
我在这里主要引入一个OpenSL ES库和一个鸿蒙的日志库,日志库默认已经引入了,我们新建一个C++类OpenSLESRecord
,功能全在里面实现,通过它默认创建的那个hello.CPP进行调用.
CMakeList申明OpenSLESRecord库并将它OpenSL ES链接起来,不然找不到OpenSL ES库。
add_library( # Sets the name of the library.
OpenSLESRecord
# Sets the library as a shared library.
SHARED
# Provides a relative path to your source file(s).
OpenSLESRecord.cpp)
target_link_libraries( # Specifies the target library.
OpenSLESRecord
# Links the target library to the log library
# included in the NDK.
OpenSLES
libhilog_ndk.z.so)
讲几个音频的简单概念
Adobe Audition
播放,但是也要指定音频格式才能播放。采样格式* 声道数 * 采样率
(采样格式* 声道数 * 采样率 * 时间 / 8)bytes
SLDataFormat_PCM slDataFormatPcm = {
SL_DATAFORMAT_PCM, //输出PCM格式的数据
(SLuint32) 2, //输出的声道数量
SL_SAMPLINGRATE_44_1, //输出的采样频率,这里是44100Hz
SL_PCMSAMPLEFORMAT_FIXED_16, //输出的采样格式,这里是16bit
SL_PCMSAMPLEFORMAT_FIXED_16, //一般来说,跟随上一个参数
SL_SPEAKER_FRONT_LEFT |SL_SPEAKER_FRONT_RIGHT, //双声道配置,如果单声道可以用 SL_SPEAKER_FRONT_CENTER
SL_BYTEORDER_LITTLEENDIAN //PCM数据的大小端排列
};
其实把上面的流程再放大了看,其实可以把创建对象->实例化对象->获取接口看做一个流程。下面是前三步的代码
SLresult sLresult= slCreateEngine(&engineObject,
0,
NULL,
0,
NULL,
0);
LOGE("slCreateEngine...");
if (SL_RESULT_SUCCESS != sLresult){
return;
}
sLresult=(*engineObject)->Realize(engineObject, 0);
LOGE("slCreateEngine Realize...");
if (SL_RESULT_SUCCESS != sLresult){
return;
}
sLresult=(*engineObject)->GetInterface(engineObject,SL_IID_ENGINE,&audioEngine);
LOGE("slCreateEngine GetInterface...");
if (SL_RESULT_SUCCESS != sLresult){
return;
}
如果说我们Android开发从C语言角度难以理解,那就从Java角度看一看,(当然只是为了让Java开发的有个大致的概念,实际并非完全如此此)。我们把C的结构体
和Java的对象
的概念做一个替换。其实这就像是一个建造者模式代码,创建对象像是把需要构建的参数传进去,实例化对象像是调用build,我们到这一步才算是拿到了对象。而这个对象的属性里又有其它子模块对象,分别有各自的功能,我们这里是根据ID拿到这个对象的。我们前三步的目的就是为了拿到引擎接口,因为它有实际的方法。
看看它的方法结构体构成,以本文用到的三个方法为例,来自OpenSL ES的头文件:
......
SLresult (*CreateAudioPlayer) (
SLEngineItf self,
SLObjectItf * pPlayer,
SLDataSource *pAudioSrc,
SLDataSink *pAudioSnk,
SLuint32 numInterfaces,
const SLInterfaceID * pInterfaceIds,
const SLboolean * pInterfaceRequired
);
SLresult (*CreateAudioRecorder) (
SLEngineItf self,
SLObjectItf * pRecorder,
SLDataSource *pAudioSrc,
SLDataSink *pAudioSnk,
SLuint32 numInterfaces,
const SLInterfaceID * pInterfaceIds,
const SLboolean * pInterfaceRequired
);
SLresult (*CreateOutputMix) (
SLEngineItf self,
SLObjectItf * pMix,
SLuint32 numInterfaces,
const SLInterfaceID * pInterfaceIds,
const SLboolean * pInterfaceRequired
);
......
理解了前三步,那接下来的三步也是一样的了,最终目的是为了拿到我们的录制接口,调用它的方法,把缓存队列设置好,再给缓存队列设置一个回调,每次队列满了就把数据回调回来,数据处理就在这个回调方法里,我们这里把它写入文件。最好调用录制方法就万事大吉了。
播放流程相对录制流程就多了一个创建混响器,其实也是因为我们的播放器需要这个东西。创建混响器的流程也一样理解就是啦。
这里讲的只是一个大致流程,这些大的流程中会需要传入一些参数,这些参数怎么设置基本上也就是一个固定的参数,比如输入设备Id、输出设备Id、PCM格式等等。所以这里不做详解,如果有兴趣可以去github上看我的demo,demo路径会放在文末。
"reqPermissions": [
{
"name": "ohos.permission.MICROPHONE"
},
{
"name": "ohos.permission.WRITE_USER_STORAGE"
},
{
"name": "ohos.permission.READ_USER_STORAGE"
}
]
Java层动态请求权限
private void requestPermission() {
String[] permissions = {
SystemPermission.WRITE_USER_STORAGE, SystemPermission.MICROPHONE
};
requestPermissionsFromUser(Arrays.stream(permissions)
.filter(permission -> verifySelfPermission(permission) != IBundleManager.PERMISSION_GRANTED).toArray(String[]::new), 0);
}
三个按钮分别 录音 暂停 和播放
<DirectionalLayout
xmlns:ohos="http://schemas.huawei.com/res/ohos"
ohos:height="match_parent"
ohos:width="match_parent"
ohos:orientation="vertical">
<Button
ohos:background_element="#0099cc"
ohos:text_color="#ffffff"
ohos:id="$+id:start_record_button"
ohos:height="match_content"
ohos:width="match_parent"
ohos:start_padding="14vp"
ohos:end_padding="0vp"
ohos:padding="10vp"
ohos:text="开始录音"
ohos:text_size="16vp"
ohos:top_margin="30vp"/>
<Button
ohos:background_element="#0099cc"
ohos:text_color="#ffffff"
ohos:id="$+id:stop_record_button"
ohos:height="match_content"
ohos:width="match_parent"
ohos:start_padding="14vp"
ohos:end_padding="0vp"
ohos:padding="10vp"
ohos:text="停止录音"
ohos:text_size="16vp"
ohos:top_margin="10vp"/>
<Button
ohos:background_element="#0099cc"
ohos:text_color="#ffffff"
ohos:id="$+id:play_record_button"
ohos:height="match_content"
ohos:width="match_parent"
ohos:start_padding="14vp"
ohos:end_padding="0vp"
ohos:padding="10vp"
ohos:text="播放录音"
ohos:text_size="16vp"
ohos:top_margin="10vp"/>
DirectionalLayout>
Java层的就不继续凑字数了,看不懂的可以先看看鸿蒙的官方文档。
如果你会Android端的OpenSL ES开发,那么鸿蒙端的其实并不难。所以你也可以先从Android或iOS入手OpenSL ES,因为他们的相关文档更多。Native端主要稍微不同的点就是Android端有它自己的BufferQueue,而鸿蒙端是没有的,因为鸿蒙端没有SLES/OpenSLES_Android.h
这个头文件,但是问题不大,用自带的BufferQueue-SLBufferQueueItf
就行。而上层的话虽说和Android端有不同,但是流程上都是相同的,都有对应的实现方法。主要是在真机上运行那个签名麻烦一点,还要去开发者平台注册应用那些。鸿蒙的IDE正式版2.0的Native开发还有bug,莫名奇妙的爆红和警告,跑起来没任何问题,我换了beta版3.0后就没这个问题的。下面是我写的录音Demo,有兴趣的可以clone下来玩一玩,在它的基础上再发展一下,比如把PCM文件转为wav格式的文件,这样我们的手机就能直接播放了。如果觉得有帮到你也可以点个小星星。欢迎大家讨论和批评指正。
鸿蒙环境下的OpenSL ES开发 GitHub地址