webrtc支持h264软编解码

通过webrtc的研究,webrtc中默认只支持了VP8,VP9两种软编解码方式,不过硬编解码,可以支持h264,但是对于android或者说windows来说,是有很多机型需要适配h264,目前一些播放器大多也是以h264为主(例如flv,mp4等格式),所以在android开发上,如何让webrtc支持h264呢?


首先我们分析如何在android上系统的支持h264编解码,h264编解码分为软编解码和硬编解码,对于硬编解码,是Android系统自带的MediaCodec.class提供编解码方法,默认支持了vp8,vp9和h264,不过对于硬编解码,webrtc对不同机型设置了白名单,也就是默认只支持OMX.qcom. 和 OMX.Exynos,这样在测试的过程中,你会发现大多数机型都无法使用硬编解码,这样就需要添加OMX.hisi.、OMX.MTK.,添加位置在HardwareVideoEncoderFactory.jav中的boolean isHardwareSupportedIncurrentSdk...()方法中;


上面修改了硬编解码的白名单,h264的软编解码,编码器采用了openh264,解码器采用了ffmpeg,这两部分代码都在src/thirdparty中,编译脚本分为单独编译各个模块,和webrtc总的编译模块,webrtc.gni中的rtc_use_h264 = proprietary_codecs && !is_android && !is_ios && !(is_win && !is_clang),默认情况下proprietary_codecs为false,所以需要修改proprtetary_codecs为true,后面的是平台相关的,根据平台,去掉自己平台的模块,修改true的方式可以直接设置为true,或者在编译gnargs="proprietary_codecs=true"设置,这样openh264可以启动编译,至于ffmpeg,默认是启动编译了,但是对于h264的解码代码部分,未加入编译脚本中,所以进入到third_party/ffmpeg/ffmpeg_generated.gni配置文件中,将所有关于h264的源文件添加编译,同样,这里是分平台相关的,里面已经实现了很多关于音频或者其他ffmepg的实现,添加内容太多,我举一个例子if ((is_mac && ffmpeg_branding == "Chrome")|| (is_android) || (is_win && ffmpeg_branding == "Chrome") || (use_linux_config && ffmpeg_branding == "Chrome") || (use_linux_config && ffmpeg_branding == "ChromeOS")) {

  ffmpeg_c_sources += [

    "libavcodec/cabac.c",

    "libavcodec/h2645_parse.c",

    "libavcodec/h264_cabac.c",

    "libavcodec/h264_cavlc.c",

    "libavcodec/h264_direct.c",

    "libavcodec/h264_loopfilter.c",

    "libavcodec/h264_mb.c",

    "libavcodec/h264_parse.c",

    "libavcodec/h264_parser.c",

    "libavcodec/h264_picture.c",

    "libavcodec/h264_ps.c",

    "libavcodec/h264_refs.c",

    "libavcodec/h264_sei.c",

    "libavcodec/h264_slice.c",

    "libavcodec/h264chroma.c",

    "libavcodec/h264data.c",

    "libavcodec/h264dec.c",

    "libavcodec/h264dsp.c",

    "libavcodec/h264idct.c",

    "libavcodec/h264qpel.c",

    "libavcodec/startcode.c",

  ]

}

这就是一个关于h264的解析的源文件,以前只有is_win和is_mac的判断,需要加入is_android也编译源代码,这就是为什么pc添加h264只需要添加一个编译属性即可,因为内部默认实现了h264的编译,同理,加上所有的h264的编译源文件,后面在测试中发现,新的版本av_register_all在注册解码器的时候发生error,这是旧版本没有的,后面发现,新版本采用的ffmpeg是4.2,去掉了此方法,改为静态编译,所以需要添加third_party/ffmpeg/chromium/config/Chromium/android/{ABI}/libavcodec/parser_list.c 和 third_party/ffmpeg/chromium/config/Chromium/android/{ABI}/libavcodec/codec_list.c 分别添加 h264 的 parser 和 decoder,至此,h264的编解码器都已经集成到webrtc的编译中


在pc中默认是提供了h264的调用接口,那么android中没有向jni和java层实现,所以,下一步,实现底层的h264接口:

1.参照sdk/android/src/java/org/webrtc/VP8Decoder.java或者VP9Decoder.java,编写出H264Decoder.java,这个是java调用jni的接口

2.参照sdk/android/jni/vp8codec.cc还活着vp9codec.cc实现h264codec.cc,编写出jni调用底层c++的接口

3.在src/sdk/android/BUILD.gn中,将添加的h264文件添加到编译脚本中


以上修改就完成了webrtc支持h264的软编解码全部流程:


Webrtc自带提供的编译后的结果是一个aar文件,aar中包括了.so和jar等其他资源文件,我通过jar的分析,在webrtc源码中找到所有编译的java源文件,然后移植到android studio进行开发,这样方便调试,至于底层c++代码,可以通过pc修改后移植进去

你可能感兴趣的:(webrtc支持h264软编解码)