Android下基于UVC的UsbCam的开发

源码路径:

1.图像采集部分:

usb_v4l2.cpp

    //
    // Created by Administrator on 2018/12/17 0017.
    //
    
    #include 
    #include 
    #include 
    #include 
    #include 
    #include 
    #include 
    #include 
    #include 
    #include 
    #include 
    #include "usb_v4l2.h"
    
    
    int g_videofd = -1;        //设备描述符
    
    struct v4l2_buffer buf;              //驱动中的一帧图像缓存,对应命令VIDIOC_QUERYBUF
    struct frame_buf frame_buf;
    
    //投放一个空的视频缓冲区到视频缓冲区输入队列中 ;
    int usb_v4l2:: video_enqueue(int i)
    {
        buf.index = i;
        if(ioctl(g_videofd, VIDIOC_QBUF, &buf) < 0){
            LOGW("enqueue failed");
            return -1;
        }
    
        return 0;
    }
    //摄像头设备信息查询及配置
    int usb_v4l2:: init_V4L2(int w,int h)
    {
        struct v4l2_capability cap ;//视频设备的功能,对应命令VIDIOC_QUERYCAP
        struct v4l2_fmtdesc stfmt; //当前视频支持的格式,对应命令VIDIOC_ENUM_FMT
        struct v4l2_format  fmt;   //当前驱动的频捕获格式式,对应命令VIDIOC_G_FMT、VIDIOC_S_FMT
    
        //1).打开摄像头设备
        g_videofd = open(VIDEO_DEV, O_RDWR);
        if(g_videofd == -1){
            LOGW("open dev failed");
            return -1;
        }
    
        //2).查询摄像头设备的基本信息及功能
        if(ioctl(g_videofd, VIDIOC_QUERYCAP, &cap) < 0){
            LOGW("ioctl failed");
            return -1;
        }else{
    
            LOGW("driver:\t\t%s\n",cap.driver);
            LOGW("card:\t\t%s\n",cap.card);
            LOGW("bus_info:\t%s\n",cap.bus_info);
            LOGW("version:\t%d\n",cap.version);
            LOGW("capabilities:\t%#x\n",cap.capabilities);
            if((cap.capabilities & V4L2_CAP_VIDEO_CAPTURE) == V4L2_CAP_VIDEO_CAPTURE)
            {
                LOGW("Device %s: supports capture.\n", VIDEO_DEV);
            }
    
            if((cap.capabilities & V4L2_CAP_STREAMING) == V4L2_CAP_STREAMING)
            {
                LOGW("Device %s: supports streaming.\n", VIDEO_DEV);
            }
        }
    
        //3).列举摄像头所支持像素格式。
        memset(&stfmt, 0, sizeof(stfmt));
        stfmt.index = 0;
        stfmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
        LOGW("device support:\n");
        while(ioctl(g_videofd, VIDIOC_ENUM_FMT, &stfmt) != -1){
            LOGW("\t%d:  %s \n\n", stfmt.index++, stfmt.description);
            //stfmt.index++;
        }
    
        //4).设置当前驱动的频捕获格式
        memset(&fmt, 0 ,sizeof(fmt));
        fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
        fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;
        fmt.fmt.pix.height = w;
        fmt.fmt.pix.width = h;
        fmt.fmt.pix.field = V4L2_FIELD_INTERLACED;
        ioctl(g_videofd, VIDIOC_S_FMT, &fmt);
        LOGW("Size: %d,%d\n", fmt.fmt.pix.width, fmt.fmt.pix.height);
        LOGW("Video stored type: %d\n",fmt.fmt.pix.pixelformat);
        if(fmt.fmt.pix.height != 480){
            LOGW("%s,%d: Unable to set format\n",__func__,__LINE__);
            return -1;
        }
    
        return 0;
    }
    
    
    //采集初始化
    int usb_v4l2:: gather_picture_init()
    {
        struct v4l2_requestbuffers reqbuf;//申请帧缓存,对应命令VIDIOC_REQBUFS
    
        int i = 0;
    
        //1).向驱动申请帧缓存
        reqbuf.count = 4;// 缓存数量,也就是说在缓存队列里保持多少张照片
        reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
        reqbuf.memory = V4L2_MEMORY_MMAP;
        if(ioctl(g_videofd, VIDIOC_REQBUFS, &reqbuf)==-1)
        {
            LOGW("VIDEO_REQBUFS");
            return -1;
        }
    
        //2).获取申请的每个缓存的信息,并mmap到用户空间
        for (i = 0; i < reqbuf.count; i++)
        {
            buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
            buf.memory = V4L2_MEMORY_MMAP;
            buf.index = i;
            if (ioctl (g_videofd, VIDIOC_QUERYBUF, &buf) == -1)
            {
                LOGW("query buffer error\n");
                return -1;
            }
            frame_buf.length[i] = buf.length;
            frame_buf.start[i] = mmap(NULL, buf.length, PROT_READ |PROT_WRITE, MAP_SHARED, g_videofd, buf.m.offset);
            if(frame_buf.start[i] == MAP_FAILED)
            {
                LOGW("buffer map error:%s,%d\n", __func__, __LINE__);
                return-1;
            }
            video_enqueue(i);//帧缓存入队
        }
    
        return 0;
    
    }
    
    //开始采集
    int usb_v4l2:: gather_on()
    {
        enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
        if(ioctl(g_videofd, VIDIOC_STREAMON, &type) < 0){
            LOGW("stream on");
            return -1;
        }
        return 0;
    }
    
    //采集结束
    int usb_v4l2:: gather_off()
    {
        enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
        if(ioctl(g_videofd, VIDIOC_STREAMOFF, &type) < 0){
            LOGW("stream on");
            return -1;
        }
        return 0;
    }
    
    //取出视频缓冲区的输出队列中取得一个已经
    //保存有一帧视频数据的视频缓冲区;
    int usb_v4l2:: video_getframe(int i)
    {
        buf.index = i;
        if(ioctl(g_videofd, VIDIOC_DQBUF, &buf) < 0){
            LOGW("release failed");
            return -1;
        }
        return 0;
    }

2. 图像转换(YUV->RGBA)和显示部分

native-lib.cpp

#include 
#include 
#include 
#include 
#include 
#include 
#include "usb_v4l2.h"

extern "C" {
#include 
#include 
#include 
#include 

}


#define srcWidth 640
#define srcHeight 480

#define outWidth 640
#define outHeight 480
usb_v4l2 device;

//extern "C" 是不能少的,同时需要正确的返回函数的返回值,否则会出错
extern "C"
JNIEXPORT jboolean JNICALL
Java_com_sunmi_player_UsbCamera_usb_1camera_1stream_1on(JNIEnv *env, jobject instance) {
    int re = 0;
    re = device.gather_on();
    if(re < 0) {
        LOGW("gather_on failed");
        return JNI_FALSE;
    }
    return JNI_TRUE;
}

extern "C"
JNIEXPORT jboolean JNICALL
Java_com_sunmi_player_UsbCamera_usb_1camera_1init(JNIEnv *env, jobject instance) {
    int re = 0;
    re = device.init_V4L2(srcWidth,srcHeight);
    if(re < 0) {
        LOGW("init_V4L2 failed");
        return JNI_FALSE;
    }
    re = device.gather_picture_init();
    if(re < 0) {
        LOGW("gather_picture_init failed");
        return JNI_FALSE;
    }

    return JNI_TRUE;
}

extern "C"
JNIEXPORT void JNICALL
Java_com_sunmi_player_UsbCamera_start_1preview(JNIEnv *env, jobject instance, jobject surface) {




    //设置输入视频文件的大小和视频格式
    const int src_w=srcWidth,src_h=srcHeight;

    AVPixelFormat src_pixfmt=AV_PIX_FMT_YUYV422;

    //获取输入视频文件每个像素占有的BIT数
    int src_bpp=av_get_bits_per_pixel(av_pix_fmt_desc_get(src_pixfmt));



    //设置输出图像的大小和格式
    const int dst_w=outWidth,dst_h=outHeight;

    AVPixelFormat dst_pixfmt=AV_PIX_FMT_RGBA;

    //获取输出视频文件每个像素占有的BIT数
    int dst_bpp=av_get_bits_per_pixel(av_pix_fmt_desc_get(dst_pixfmt));



    //Structures

    uint8_t *src_data[4];

    int src_linesize[4];



    uint8_t *dst_data[4];

    int dst_linesize[4];




    struct SwsContext *img_convert_ctx;
    uint8_t *temp_buffer;


    int frame_idx=0;

    int ret=0;
    /*通过输入宽和高以及像素格式分配输入缓冲,对于yuv422的格式:
     * src_data[0]:yuv的数据是按照顺序依次存放的
     * align:输入宽度需要对齐到多少
     */
    ret= av_image_alloc(src_data, src_linesize,src_w, src_h, src_pixfmt, 1);

    if (ret< 0) {

        LOGW( "Could not allocate source image\n");

        return ;

    }

    /*通过输出宽和高以及像素格式分配输入缓冲,对于RGBA的格式:
     * dst_data[0]:代表RGBA通道;dst_linesize[0]:对齐后的RGBA宽度(W*H*4),可能会大于输入的图像宽度
     * dst_data[1]:RGBA是非平面数据
     * dst_data[2]:RGBA是非平面数据
     * align:输出宽度需要对齐到多少
     */
    ret = av_image_alloc(dst_data, dst_linesize,dst_w, dst_h, dst_pixfmt, 1);

    if (ret< 0) {

        LOGW( "Could not allocate destination image\n");

        return ;

    }


    //-----------------------------

    //Init Method 1
    //分配图像转换的上下文
    img_convert_ctx =sws_alloc_context();

    //Set Value
    //SWS_BICUBIC代表的是图像转换的其中一种算法
    av_opt_set_int(img_convert_ctx,"sws_flags",SWS_BICUBIC|SWS_PRINT_INFO,0);
    //设置图像转换输入源的宽
    av_opt_set_int(img_convert_ctx,"srcw",src_w,0);
    //设置图像转换输入源的高
    av_opt_set_int(img_convert_ctx,"srch",src_h,0);
    //设置图像转换输入源的格式
    av_opt_set_int(img_convert_ctx,"src_format",src_pixfmt,0);

    //'0' for MPEG (Y:0-235);'1' for JPEG (Y:0-255)
    /*
     * FFmpeg中可以通过使用av_opt_set()设置“src_range”和“dst_range”来设置输入和输出的YUV的取值范围。
     * 如果“dst_range”字段设置为“1”的话,则代表输出的YUV的取值范围遵循“jpeg”标准;
     * 如果“dst_range”字段设置为“0”的话,则代表输出的YUV的取值范围遵循“mpeg”标准。
     * 下面记录一下YUV的取值范围的概念。与RGB每个像素点的每个分量取值范围为0-255不同(每个分量占8bit),YUV取值范围有两种:
     * (1)以Rec.601为代表(还包括BT.709 / BT.2020)的广播电视标准中,Y的取值范围是16-235,U、V的取值范围是16-240。FFmpeg中称之为“mpeg”范围。
     * (2)以JPEG为代表的标准中,Y、U、V的取值范围都是0-255。FFmpeg中称之为“jpeg” 范围。
     */
    av_opt_set_int(img_convert_ctx,"src_range",1,0);
    //设置图像转换输出图像的宽
    av_opt_set_int(img_convert_ctx,"dstw",dst_w,0);
    //设置图像转换输出图像的高
    av_opt_set_int(img_convert_ctx,"dsth",dst_h,0);
    //设置图像转换输出图像的目标格式
    av_opt_set_int(img_convert_ctx,"dst_format",dst_pixfmt,0);
    //同上设置输出图像遵循Mjpeg还是Jpeg
    av_opt_set_int(img_convert_ctx,"dst_range",1,0);
    //初始化图像转换上下文
    sws_init_context(img_convert_ctx,NULL,NULL);



    //显示窗口初始化
    ANativeWindow *nwin = ANativeWindow_fromSurface(env,surface);
    //设置显示窗口的格式
    ANativeWindow_setBuffersGeometry(nwin,outWidth,outHeight,WINDOW_FORMAT_RGBA_8888);
    //定义窗口buf
    ANativeWindow_Buffer wbuf;
    int i = 0;

    do
    {

        ret = device.video_getframe(i);
        if(ret < 0) {
            LOGW("frame %d, get failed",i);
            goto Out;
        }
        temp_buffer = (uint8_t *)frame_buf.start[i];

        switch(src_pixfmt){

            case AV_PIX_FMT_GRAY8:{

                memcpy(src_data[0],temp_buffer,src_w*src_h);

                break;

            }

            case AV_PIX_FMT_YUV420P:{
                //通道转换,YUV420P有三个通道需要转换
                memcpy(src_data[0],temp_buffer,src_w*src_h);                    //Y

                memcpy(src_data[1],temp_buffer+src_w*src_h,src_w*src_h/4);      //U

                memcpy(src_data[2],temp_buffer+src_w*src_h*5/4,src_w*src_h/4);  //V

                break;

            }

            case AV_PIX_FMT_YUV422P:{
                //通道转换,YUV422P有三个通道需要转换
                memcpy(src_data[0],temp_buffer,src_w*src_h);                    //Y

                memcpy(src_data[1],temp_buffer+src_w*src_h,src_w*src_h/2);      //U

                memcpy(src_data[2],temp_buffer+src_w*src_h*3/2,src_w*src_h/2);  //V

                break;

            }

            case AV_PIX_FMT_YUV444P:{

                memcpy(src_data[0],temp_buffer,src_w*src_h);                    //Y

                memcpy(src_data[1],temp_buffer+src_w*src_h,src_w*src_h);        //U

                memcpy(src_data[2],temp_buffer+src_w*src_h*2,src_w*src_h);      //V

                break;

            }

            case AV_PIX_FMT_YUYV422:{

                memcpy(src_data[0],temp_buffer,src_w*src_h*2);                  //Packed

                break;

            }

            case AV_PIX_FMT_RGB24:{

                memcpy(src_data[0],temp_buffer,src_w*src_h*3);                  //Packed

                break;

            }

            default:{

                printf("Not Support Input Pixel Format.\n");

                break;

            }

        }


        //将数据转换,YUV422转换为RGBA格式
        sws_scale(img_convert_ctx, src_data, src_linesize, 0, src_h, dst_data, dst_linesize);

        //LOGW("Finish process frame %5d\n",frame_idx);

        frame_idx++;

        ANativeWindow_lock(nwin,&wbuf,0);
        //wbuf.bits:对应的就是surface的buf
        uint8_t *dst = (uint8_t*)wbuf.bits;
        //因为RGBA是非平面的数据,所以转换后数据是存放在dst_data[0]中的
        memcpy(dst,dst_data[0],outWidth*outHeight*4);
        ANativeWindow_unlockAndPost(nwin);

        if(device.video_enqueue(i) < 0){
            LOGW("video_enqueue(%d) failed\n",i);
            break ;
        }
        i=(i+1)%4;
    }while(true);



Out:
    LOGW("end preview \n");
    device.gather_off();
    sws_freeContext(img_convert_ctx);
    av_freep(&src_data[0]);
    av_freep(&dst_data[0]);

    return;
}

3.APP部分

UsbCamera.java

package com.sunmi.player;

import android.content.Context;
import android.opengl.GLSurfaceView;
import android.util.AttributeSet;
import android.util.Log;
import android.view.SurfaceHolder;

/**
 * Created by Administrator on 2018/12/14 0014.
 */

public class UsbCamera extends GLSurfaceView implements Runnable,SurfaceHolder.Callback{

    public UsbCamera(Context context, AttributeSet attrs) {
        super(context, attrs);
    }

    @Override
    public void run() {
        boolean re = true;

        re = usb_camera_init();
        if(re == false) {
            Log.e("ffmpeg", "usb_camera_init failed");
            return ;
        }
        re = usb_camera_stream_on();
        if(re == false) {
            Log.e("ffmpeg", "usb_camera_stream_on failed");
            return ;
        }

        start_preview(getHolder().getSurface());
    }

    @Override
    public void surfaceCreated(SurfaceHolder var1){

        new Thread(this).start();

    }

    @Override
    public void surfaceChanged(SurfaceHolder var1, int var2, int var3, int var4){

    }

    @Override
    public void surfaceDestroyed(SurfaceHolder var1){

    }
    public native boolean usb_camera_init();
    public native boolean usb_camera_stream_on();
    public native void start_preview(Object surface);
}

你可能感兴趣的:(ffmpeg)