WebRTC的C/C++ API

WebRTC 的音频引擎封装了音频设备的统一接口, 使用者不用关心代码是 Windows, Mac OS X, Linux , iOS 或者 Android 等平台. 这也是一件非常棒的事情, 这个封装如果抽取出来, 就是一个优秀的跨平台音频接口(Audio API).

这里提供一个示例, 讲解如何使用  WebRTC  的 C/C++ API 进行录音和播放声音. 首先, 引入头文件:

#include "webrtc/modules/audio_device/include/audio_device.h"

初始化, 并列出所有的录音设备(有几个麦克风):

webrtc::AudioDeviceModule *audio;
audio = webrtc::CreateAudioDeviceModule(0, webrtc::AudioDeviceModule::kPlatformDefaultAudio);
audio->Init();

num = audio->RecordingDevices();
printf("Input devices: %d\n", num);
for(int i=0; i
    char name[webrtc::kAdmMaxDeviceNameSize];
    char guid[webrtc::kAdmMaxGuidSize];
    int ret = audio->RecordingDeviceName(i, name, guid);
    if(ret != -1){
        printf("    %d %s %s\n", i, name, guid);
    }
}

接着, 选中一个麦克风, 初始化后开始录音:

ret = audio->SetRecordingDevice(0);
ret = audio->InitRecording();

AudioTransportImpl callback(audio);
ret = audio->RegisterAudioCallback(&callback);
ret = audio->StartRecording();

不过, 在开始录音之前, 你需要注册一个回调类, 然后在回调方法中把录音得到的数据保存起来. 需要注意的是, 这个回调是在一个单独的线程中执行的, 要注意多线程安全问题.

回调函数 webrtc::AudioTransport::RecordedDataIsAvailable() 并没有什么特殊的, 就是拿到一段 10ms 的音频采样(samples) 进行处理.

播放声音的API和录音的API基本类似.

这里有一个 完整的示例代码 , 甚至还包括了 VAD(静音检测)

你可能感兴趣的:(音视频)