Android录制视频-nv21转nv12姿势(libyuv使用)

抬头图片.jpg

前言

近期接触项目当中的视频录制项目,测试人员提出了一个bug:说项目录制的视频,会断断续续,每隔一段时间就会停住,然后再继续播放。当前项目是采用视频,音频分轨录制,然后再用ffmpeg合成视频。经过走代码逻辑,发现出现bug的原因是因为缺少视频帧数,定义的合成帧数以及录制帧数是24,但是在yuv数据转化的过程中,耗时间比较长,导致了丢帧的情况。因为目前项目里面所有的转化都是通过 java 方法转化而成。So,现在需要采用google的libyuv进行格式转换,提高速度。

为什么需要转化?

那么有些聪明的小明就要问了,直接拿到yuv数据录制不就好了吗,为什么需要转化呢?
当然不行,转化是必须的。因为nv21是Android摄像头返回的数据。我们是通过MediaCodec生成H.264文件。MediaCodec使用需要创建并设置好 MediaFormat 对象,而MediaFormat 使用的是 COLOR_FormatYUV420SemiPlanar,也就是 NV12 模式,那么就得做一个转换,把 NV21 转换到 NV12 。

具体使用代码:

        MediaFormat mediaFormat;
        if (rotation == 90 || rotation == 270) {
            //设置视频宽高
            mediaFormat = MediaFormat.createVideoFormat(MediaFormat.MIMETYPE_VIDEO_AVC, videoHeight, videoWidth);
        } else {
            mediaFormat = MediaFormat.createVideoFormat(MediaFormat.MIMETYPE_VIDEO_AVC, videoWidth, videoHeight);
        }
        //图像数据格式 YUV420(nv12)
        mediaFormat.setInteger(MediaFormat.KEY_COLOR_FORMAT, 
        MediaCodecInfo.CodecCapabilities.COLOR_FormatYUV420SemiPlanar);
        //码率
        Log.d("输出视频", "码率" + videoWidth * videoHeight);
        mediaFormat.setInteger(MediaFormat.KEY_BIT_RATE, videoWidth * videoHeight);
        //每秒30帧
        mediaFormat.setInteger(MediaFormat.KEY_FRAME_RATE, video_frameRate);
        //1秒一个关键帧
        mediaFormat.setInteger(MediaFormat.KEY_I_FRAME_INTERVAL, 1);
        videoMediaCodec = MediaCodec.createEncoderByType(MediaFormat.MIMETYPE_VIDEO_AVC);
        videoMediaCodec.configure(mediaFormat, null, null, MediaCodec.CONFIGURE_FLAG_ENCODE);
        videoMediaCodec.start();

关于格式的区别以及Android MediaCodec的了解,可以跳转观看,本文不再描述:
音视频基础知识---像素格式YUV
Android音视频—YUV格式深入浅出
Android MediaCodec 硬编码 H264 文件

libyuv简介

libyuv是Google开源的实现各种YUV与RGB之间相互转换、旋转、缩放的库。它是跨平台的,可在Windows、Linux、Mac、Android等操作系统,x86、x64、arm架构上进行编译运行,支持SSE、AVX、NEON等SIMD指令加速。

实际使用

对于Android来说,我们不能直接使用libyuv,需要集成到项目当中或者编译so动态库才能使用。

1.集成

为了方便,我们直接集成已经实现了的项目里面的module。

LibyuvDemo

step_01.png

这个老哥已经把libyuv 集成并且弄成了一个module,我们只需要下载源码,然后再自己的项目里面添加module就可以直接使用啦!!!但是需要注意的是这个项目里面的YuvUtil的 compressYUV 方法有误,后续需要修改下(后面会说)

当我们下载好了源码之后,在我们项目里面通过AndroidStudio添加module。


step_02.png

添加刚刚下载的源码,里面的libyuv路径,直接finish,剩下的就交给AndroidStudio了


step_03.png

添加完毕之后,项目里就多了一个module,到这里,基本上就完成了集成。


step_04.png

2.修改代码

前面集成的时候说过,compressYUV方法是有错误的,我们需要修改一下,直接把下面的代码替换掉 compressYUV方法里面的代码就 阔以鸟~~~

extern "C"
JNIEXPORT void JNICALL
Java_com_libyuv_util_YuvUtil_compressYUV(JNIEnv *env, jclass type,
                                         jbyteArray nv21Src, jint width,
                                         jint height, jbyteArray i420Dst,
                                         jint dst_width, jint dst_height,
                                         jint mode, jint degree,
                                         jboolean isMirror) {

    jbyte *src_nv21_data = env->GetByteArrayElements(nv21Src, NULL);
    jbyte *dst_i420_data = env->GetByteArrayElements(i420Dst, NULL);
    jbyte *tmp_dst_i420_data = NULL;

    // nv21转化为i420
    jbyte *i420_data = (jbyte *) malloc(sizeof(jbyte) * width * height * 3 / 2);
    nv21ToI420(src_nv21_data, width, height, i420_data);
    tmp_dst_i420_data = i420_data;

    // 镜像
    jbyte *i420_mirror_data = NULL;
    if(isMirror){
        i420_mirror_data = (jbyte *)malloc(sizeof(jbyte) * width * height * 3 / 2);
        mirrorI420(tmp_dst_i420_data, width, height, i420_mirror_data);
        tmp_dst_i420_data = i420_mirror_data;
    }

    // 缩放
    jbyte *i420_scale_data = NULL;
    if(width != dst_width || height != dst_height){
        i420_scale_data = (jbyte *)malloc(sizeof(jbyte) * width * height * 3 / 2);
        scaleI420(tmp_dst_i420_data, width, height, i420_scale_data, dst_width, dst_height, mode);
        tmp_dst_i420_data = i420_scale_data;
        width = dst_width;
        height = dst_height;
    }

    // 旋转
    jbyte *i420_rotate_data = NULL;
    if (degree == libyuv::kRotate90 || degree == libyuv::kRotate180 || degree == libyuv::kRotate270){
        i420_rotate_data = (jbyte *)malloc(sizeof(jbyte) * width * height * 3 / 2);
        rotateI420(tmp_dst_i420_data, width, height, i420_rotate_data, degree);
        tmp_dst_i420_data = i420_rotate_data;
    }

    // 同步数据
    // memcpy(dst_i420_data, tmp_dst_i420_data, sizeof(jbyte) * width * height * 3 / 2);
    jint len = env->GetArrayLength(i420Dst);
    memcpy(dst_i420_data, tmp_dst_i420_data, len);
    tmp_dst_i420_data = NULL;
    env->ReleaseByteArrayElements(i420Dst, dst_i420_data, 0);

    // 释放
    if(i420_data != NULL) free(i420_data);
    if(i420_mirror_data != NULL) free(i420_mirror_data);
    if(i420_scale_data != NULL) free(i420_scale_data);
    if(i420_rotate_data != NULL) free(i420_rotate_data);
}

这个方法会 针对我们传入的nv21数据,进行压缩,旋转并且返回yuvI420格式的数据,这对于我们下一步转换nv12有重要作用。参数说明定义方法YuvUtil说得很清楚。


step_05.png

3.添加方法

我们集成的libyuv里面,是没有 I420 转 nv12的方法的,这个方法需要我们自己动手完成。但是我们也没有写过C语言的代码哇。而且我们也不熟悉java与C的相互调用哇。那怎么办呢?俗话说,好记性不如烂笔头。我告诉你不然直接你自己去了解。所以我们只能先去了解一下了。Android的JNI开发全面介绍与最佳实践

篇幅很长,我们简单过一遍就可以,有兴趣的朋友可以详细推敲推敲。我们只需要知道我们需要在YuvUtils里面定义一个转换的方法。然后使用native关键字,这关键字就是java调用C的。然后在 C代码也就是YuvJni.cpp文件里面添加对应的方法(注意方法名需要指定具体位置,仿照前面的compressYUV方法的命名即可)

接着我们百度一下 I420转nv12的C端代码,然后我在SharryChoo/LibyuvSample里面找到了一段转换代码如下:

void LibyuvUtil::I420ToNV21(jbyte *src, jbyte *dst, int width, int height) {
    jint src_y_size = width * height;
    jint src_u_size = src_y_size >> 2;
    jbyte *src_y = src;
    jbyte *src_u = src + src_y_size;
    jbyte *src_v = src + src_y_size + src_u_size;

    jint dst_y_size = width * height;
    jbyte *dst_y = dst;
    jbyte *dst_vu = dst + dst_y_size;

    libyuv::I420ToNV21(
            (uint8_t *) src_y, width,
            (uint8_t *) src_u, width >> 1,
            (uint8_t *) src_v, width >> 1,
            (uint8_t *) dst_y, width,
            (uint8_t *) dst_vu, width,
            width, height
    );
}

但是我们还是需要修改一下方法的定义类型才可以让我们使用(仿照compressYUV方法)下面贴出修改后的代码:


// i420 --> nv12
extern "C"
JNIEXPORT void JNICALL
Java_com_libyuv_util_YuvUtil_yuvI420ToNV12(JNIEnv *env, jclass type, jbyteArray i420src,
                                           jbyteArray nv12Dst,
                                           jint width, jint height) {


    jbyte *src_i420_data = env->GetByteArrayElements(i420src, NULL);
    jbyte *src_nv12_data = env->GetByteArrayElements(nv12Dst, NULL);

    jint src_y_size = width * height;
    jint src_u_size = src_y_size >> 2;

    jbyte *src_y = src_i420_data;
    jbyte *src_u = src_i420_data + src_y_size;
    jbyte *src_v = src_i420_data + src_y_size + src_u_size;

    jint dst_y_size = width * height;
    jbyte *dst_y = src_nv12_data;
    jbyte *dst_uv = src_nv12_data + dst_y_size;

    libyuv::I420ToNV12(
            (uint8_t *) src_y, width,
            (uint8_t *) src_u, width >> 1,
            (uint8_t *) src_v, width >> 1,
            (uint8_t *) dst_y, width,
            (uint8_t *) dst_uv, width,
            width, height
    );
}

我们将上面的代码,复制到YuvJni.cpp文件里面,然后在YuvUtil里面定义一个方法:

  /**
     * 将I420转化为NV2
     *
     * @param i420Src 原始I420数据
     * @param nv12Dst 转化后的NV12数据
     * @param width   输出的宽
     * @param height  输出的高
     */
    public static native void yuvI420ToNV12(byte[] i420Src,byte[] nv12Dst,int width,int height);

到这里,我们的I420转nv12的方法,就已经添加完毕了。当然,如果还需要其他的方法,我们google一下转换代码,举一反三的往里面添加就好了。那么回到主题,nv21转nv12的姿势,到底是什么呢?

4.项目中使用

因为我们添加的是一个module,那么我们必须在项目的build.gradle里面添加module才能调用libyuv里面的东西。

dependencies {

    ···
    api project(":libyuv")
    ···
}

然后在我需要使用转换的地方,添加关键的三行代码。


    /**
     * 编码视频
     * @param nv21 nv21 byte数组
     * @throws IOException 抛出IO异常
     */
    private void encodeVideo(byte[] nv21) throws IOException {
 
        //定义i420 byte数组
        byte[] yuvI420 = new byte[nv21.length];
        //定义我们需要的nv12数组
        byte[] nv12Result = new byte[nv21.length];
        //初始化
        YuvUtil.init(videoWidth, videoHeight, videoWidth, videoHeight);
        //将nv21转换成I420
        YuvUtil.yuvCompress(nv21, videoWidth, videoHeight, yuvI420, videoWidth, videoHeight, 0, rotation, isFrontCamera);
        //将I420转换成nv12
        YuvUtil.yuvI420ToNV12(yuvI420, nv12Result, videoWidth, videoHeight);

        //得到编码器的输入和输出流, 输入流写入源数据 输出流读取编码后的数据
        //得到要使用的缓存序列角标
        int inputIndex = videoMediaCodec.dequeueInputBuffer(TIMEOUT_USEC);
        if (inputIndex >= 0) {
            ByteBuffer inputBuffer = videoMediaCodec.getInputBuffer(inputIndex);
            inputBuffer.clear();
            //把要编码的数据添加进去
            inputBuffer.put(nv12Result);
            //塞到编码序列中, 等待MediaCodec编码
            videoMediaCodec.queueInputBuffer(inputIndex, 0, nv12Result.length, System.nanoTime() / 1000, 0);
        }

        ······编码h.264等等一系列操作。
   }

到这里,我们的nv21转nv12的所有姿势,就已经 恁 完毕了。

总结

姿势总共分为三步:

1.继承libyuv到我们的项目当中。
2.修改libyuv里面的方法,添加对应的I420转nv12的方法。
3.将module添加到我们自己的项目里调用相对应的方法。

当然,这种姿势是一个比较投机取巧的。有时间有精力的话,还是得好好推敲推敲关于libyuv、jni开发、yuv等等相关知识。

相关借鉴资料:
《Android音视频——Libyuv使用实战》
《音视频基础知识---像素格式YUV》
《Android音视频—YUV格式深入浅出》
《Android MediaCodec 硬编码 H264 文件》
《Android的JNI开发全面介绍与最佳实践》
《LibyuvDemo》
《SharryChoo/LibyuvSample》

你可能感兴趣的:(Android录制视频-nv21转nv12姿势(libyuv使用))