NDK开发汇总
与HTTP(超文本传输协议)同样是一个基于TCP的Real Time Messaging Protocol(实时消息传输协议)。由Adobe Systems公司为Flash播放器和服务器之间音频、视频和数据传输开发的一种开放协议 。在国内被广泛的应用于直播领域。HTTP默认端口为80,RTMP则为1935。
本质上我们通过阅读Adobe的协议规范,通过与服务器建立TCP通信,根据协议格式生成与解析数据即可使用RTMP进行直播。当然我们也可以借助一些实现了RTMP协议的开源库如RTMPDump来完成这一过程。
RTMPDump 是一个用来处理RTMP流媒体的开源工具包。它能够单独使用进行RTMP的通信,也可以集成到FFmpeg中通过FFmpeg接口来使用RTMPDump。
注意:android包只是一些命令工具,我们需要源码
RTMPDump源码下载
在Android中可以直接借助NDK在JNI层调用RTMPDump来完成RTMP通信。但是首先必须得进行交叉编译。
在根目录下提供了一个Makefile
与一些.c
源文件。这里的源文件将会编译出一系列的可执行文件。然后我们需要的并不是可执行文件,真正的对RTMP的实现都在librtmp子目录中。在这个子目录中同样包含了一个Makefile
文件。通过阅读Makefile
发现,它的源码并不多:OBJS=rtmp.o log.o amf.o hashswf.o parseurl.o
。因此我们不进行预编译,即直接放入AS中借助CMakeLists.txt
来进行编译。这么做可以让我们方便的对库本身进行调试或修改(实际上我们确实会稍微修改这个库的源码)。
src/main/cpp/librtmp
,并为其编写CMakeLists.txt#预编译宏
set(CMAKE_C_FLAGS "${CMAKE_C_FLAGS} -DNO_CRYPTO" )
#所有源文件放入 rtmp_source 变量
file(GLOB rtmp_source *.c)
#编译静态库
add_library(rtmp STATIC ${rtmp_source} )
app/CMakeLists.txt
中导入这个CMakeLists.txt
cmake_minimum_required(VERSION 3.4.1)
#导入其他目录cmakelist
add_subdirectory(src/main/cpp/librtmp)
add_library(XXX SHARED ...)
#XXX需要链接rtmp库
target_link_libraries(XXX rtmp ...)
一个CmakeList用另外的CmakeList
add_subdirectory(src/main/cpp/librtmp)
编译报错:
fatal error: ‘openssl/ssl.h’ file not found
解决:
set(CMAKE_C_FLAGS "${CMAKE_C_FLAGS} -DNO_CRYPTO")
RTMP视频流格式与FLV很相似,通过查看FLV的格式文档,就能够知道RTMP视频数据应该怎么拼接。RTMP中的数据就是由FLV的TAG中的数据区构成。
flv分析器打开flv文件
组装rtmp包看的是数据区,从17开始
字段 | 字节 | 描述 |
---|---|---|
类型 | 1 | 0x08: 音频 0x09: 视频 0x12: 脚本(描述信息) |
数据大小 | 3 | 数据区的大小,不包括包头。 |
时间戳 | 3 | 当前帧相对时间戳,单位是毫秒。相对于第一个TAG时戳。 |
时戳扩展 | 1 | 如果时戳大于0xFFFFFF,将会存在字节。 |
流ID | 3 | 总是0 |
数据区 | n | 音、视频包 |
上图从17开始是数据区,注意下表标题是占位不是字节,17(1+7 :关键帧+高级编码)
字段 | 占位 | 描述 |
---|---|---|
帧类型 | 4 | 1: 关键帧 2: 普通帧 … |
编码ID | 4 | 7: 高级视频编码 AVC … |
视频数据 | n | AVC则需要下面的AVCVIDEOPACKET |
字段 | 字节 | 描述 |
---|---|---|
类型 | 1 | 0:AVC 序列头(指导播放器如何解码) 1:其他单元(其他NALU) |
合成时间 | 3 | 对于AVC,全为0 |
数据 | n | 类型不同,数据不同 |
SPS:Sequence Paramater Set
PPS:Picture Paramater Set
在AVCVIDEOPACKET 中如果类型为0,则后续数据为:
类型 | 字节 | 说明 |
---|---|---|
版本 | 1 | 0x01 |
编码规格 | 3 | sps[1]+sps[2]+sps[3] (后面说明) |
几个字节表示 NALU 的长度 | 1 | 0xFF,包长为 (0xFF& 3) + 1,也就是4字节表示 |
SPS个数 | 1 | 0xE1,个数为0xE1 & 0x1F 也就是1 |
SPS长度 | 2 | 整个sps的长度 |
sps的内容 | n | 整个sps |
pps个数 | 1 | 0x01,不用计算就是1 |
pps长度 | 2 | 整个pps长度 |
pps内容 | n | 整个pps内容 |
在AVCVIDEOPACKET 中如果类型为1,则后续数据为:
类型 | 字节 | 说明 |
---|---|---|
包长 | 由AVC 序列头中定义 | 后续长度 |
数据 | n | H.264数据 |
一般情况下,组装的RTMPPacket(RTMPDump中的结构体)为:
NALU就是NAL UNIT,nal单元。NAL全称Network Abstract Layer, 即网络抽象层,H.264在网络上传输的结构。一帧图片经过 H.264 编码器之后,就被编码为一个或多个片(slice),而装载着这些片(slice)的载体,就是 NALU 了 。
我们通过x264编码获得一组或者多组 x264_nal_t
。结合RTMP,我们需要区分的是SPS、PPS、关键帧与普通帧:
enum nal_unit_type_e
{
NAL_UNKNOWN = 0,
NAL_SLICE = 1,
NAL_SLICE_DPA = 2,
NAL_SLICE_DPB = 3,
NAL_SLICE_DPC = 4,
NAL_SLICE_IDR = 5, /* ref_idc != 0 */ //关键帧片
NAL_SEI = 6, /* ref_idc == 0 */
NAL_SPS = 7, //sps片
NAL_PPS = 8, //pps片
NAL_AUD = 9,
NAL_FILLER = 12,
/* ref_idc == 0 for 6,9,10,11,12 */
};
x264是一个C语言编写的目前对H.264标准支持最完善的编解码库。与RTMPDump一样同样直接在Android中使用,也可以集成进入FFMpeg。
在linux下载编译:
wget https://code.videolan.org/videolan/x264/-/archive/master/x264-master.tar.bz2
在Android中使用x264,首先需要预编译出x264的静/动态库
#!/bin/bash
PREFIX=./android/armeabi-v7a
NDK_ROOT=/home/a/android-ndk-r17c
TOOLCHAIN=$NDK_ROOT/toolchains/arm-linux-androideabi-4.9/prebuilt/linux-x86_64
FLAGS="-isysroot $NDK_ROOT/sysroot -isystem $NDK_ROOT/sysroot/usr/include/arm-linux-androideabi -D__ANDROID_API__=17 -g -DANDROID -ffunction-sections -funwind-tables -fstack-protector-strong -no-canonical-prefixes -march=armv7-a -mfloat-abi=softfp -mfpu=vfpv3-d16 -mthumb -Wa,--noexecstack -Wformat -Werror=format-security -O0 -fPIC"
#--disable-cli 不需要命令行工具
#--enable-static 静态库
#和ffmpeg差不多
./configure \
--prefix=$PREFIX \
--disable-cli \
--enable-static \
--enable-pic \
--host=arm-linux \
--cross-prefix=$TOOLCHAIN/bin/arm-linux-androideabi- \
--sysroot=$NDK_ROOT/platforms/android-17/arch-arm \
--extra-cflags="$FLAGS"
make clean
make install
但是编译x264我们需要注意一点,x264在进行环境检测的时候,使用的是比较宽松的方式,对于我们目前需要编译的android-17为目标来说,编译出的库在使用上会出现问题(对于18以上不会)。
我们需要修改configure
脚本,在脚本中搜索cc_check
vim如何搜索:在vim里底线命令模式(进入按/),输入 /cc_check
cc_check() {
......
if [ $compiler_style = MS ]; then
cc_cmd="$CC conftest.c -Werror=implicit-function-declaration $(cc_cflags $CFLAGS $CHECK_CFLAGS $2) -link $(cl_ldflags $2 $LDFLAGSCLI $LDFLAGS)"
else
cc_cmd="$CC conftest.c -Werror=implicit-function-declaration $CFLAGS $CHECK_CFLAGS $2 $LDFLAGSCLI $LDFLAGS -o conftest"
fi
......
}
向cc_cmd
内添加 -Werror=implicit-function-declaration
。
cc_cmd="$CC conftest.c -Werror=implicit-function-declaration $(cc_cflags
生产的头文件和.a库文件在./android/armeabi-v7a对应目录下,集成到Android 项目中去
指定头文件和.a库文件路径
include_directories(src/main/cpp/include)
set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS} -L${CMAKE_SOURCE_DIR}/src/main/cpp/libs/${ANDROID_ABI}")
target_link_libraries(
native-lib
rtmp
x264
log)
一段h264视频由N组GOP(group of picture)组成,GOP指的就是画面组,一个GOP是一组连续的画面 。之前的学习中我们知道I帧能够独立解码,而P、B需要参考其他帧。
属于I帧的子集,有一种特殊的I帧,被称之为IDR帧,IDR帧的作用为即时刷新。
上面的这张图片描述的是2组GOP。其他I帧与IDR帧的区别就在于:刷新。当解码器解码帧5的时候,可以跨过帧4参考到帧3,普通I帧不会导致解码器的解码信息数据刷新。而IDR帧则会刷新解码需要的SPS、PPS数据,所以帧8不可能跨帧7参考解码。
往RTMP包中填充的是H.264数据,但不是直接将x264编码出来的数据填充进去。
一段包含了N个图像的H.264裸数据,每个NAL之间由:
00 00 00 01 或者 00 00 01
进行分割。在分割符之后的第一个字节,就是表示这个nal的类型。
0x67:sps 0x68:pps 0x65:IDR
即为上面的
NAL_SLICE_IDR 0x65& 0x1f = 5
NAL_SPS 0x67 & 0x1f = 7,
NAL_PPS 0x68 & 0x1f= 8,
码率越高,视频越清晰,数据越大,但是不是越大越好,有上限值
帧率:1s切换画面次数