通过ffmpeg实时读取宇视摄像头的高清帧流数据,并保存4张图片进行4合一照片的生成。

通过ffmpeg实时读取宇视摄像头的高清帧流数据,并保存4张图片进行4合一照片的生成。

FFmpeg视频解码过程

通常来说,FFmpeg的视频解码过程有以下几个步骤:

注册所支持的所有的文件(容器)格式及其对应的CODEC av_register_all()
打开文件 avformat_open_input()
从文件中提取流信息 avformat_find_stream_info()
在多个数据流中找到视频流 video stream(类型为MEDIA_TYPE_VIDEO)
查找video stream 相对应的解码器 avcodec_find_decoder
打开解码器 avcodec_open2()
为解码帧分配内存 av_frame_alloc()
从流中读取读取数据到Packet中 av_read_frame()
对video 帧进行解码,调用 avcodec_decode_video2()

SaveAsJPEG(); 函数
1.分配AVFormatContext对象  AVFormatContext* pFormatCtx = avformat_alloc_context();
2.设置输出文件格式                 pFormatCtx->oformat = av_guess_format("mjpeg", NULL, NULL);
3.建并初始化一个和该url相关的AVIOContext
4.// 构建一个新stream
5.// 设置该stream的信息
6.查找编码器
7.设置pCodecCtx的解码器为pCodec
8.给AVPacket分配足够大的空间

代码如下:
//通过ffmpeg实时读取宇视摄像头的高清帧流数据,并保存一张图片进行4合一照片的生成。
#include
#include
#include

//#include


using namespace std;
using namespace cv;


extern "C"
{
    #include "libavcodec/avcodec.h"
    #include "libavformat/avformat.h"
    #include "libswscale/swscale.h"
    #include "libavdevice/avdevice.h"
    #include "libavutil/pixfmt.h"
}
//由于我们建立的是C++的工程  编译的时候使用的C++的编译器编译
//而FFMPEG是C的库  因此这里需要加上extern "C"
//否则会提示各种未定义

//void SaveAsBMP(AVFrame *pFrameRGB, int width, int height, int index, int bpp);
int  SaveAsJPEG(AVFrame* pFrame, int width, int height, int index);
void FourToOne(int x,int y);//生成4合1照片合成图

Mat image_1;
Mat image_2;
Mat image_3;
Mat image_4;


int main()
{
    cout << "Hello FFmpeg!" << endl;
    av_register_all(); //初始化FFMPEG  调用了这个才能正常适用编码器和解码器

    // 初始化网络模块
    avformat_network_init();

    //=========================== 创建AVFormatContext结构体 ===============================//
    //分配一个AVFormatContext,FFMPEG所有的操作都要通过这个AVFormatContext来进行
    AVFormatContext *pFormatCtx = avformat_alloc_context();


    //==================================== 打开文件 ======================================//
    char file_path[] = "rtsp://admin:[email protected]:554/video2";

    AVDictionary* options = NULL;
    av_dict_set(&options, "buffer_size", "102400", 0); //设置缓存大小,1080p可将值调大
    av_dict_set(&options, "rtsp_transport", "tcp", 0); //以udp方式打开,如果以tcp方式打开将udp替换为tcp
    av_dict_set(&options, "stimeout", "2000000", 0); //设置超时断开连接时间,单位微秒
    av_dict_set(&options, "max_delay", "500000", 0); //设置最大时延
//    packet = (AVPacket *)av_malloc(sizeof(AVPacket));

    
   //打开网络流或文件流  
    if (avformat_open_input(&pFormatCtx, file_path, NULL, &options) != 0)    
    {
        printf("Couldn't open input stream.\n");
        return -1;
    }

    //循环查找视频中包含的流信息,直到找到视频类型的流
    //便将其记录下来 保存到videoStream变量中
    int i;
    int videoStream;

    //=================================== 获取视频流信息 ===================================//
    if (avformat_find_stream_info(pFormatCtx, NULL) < 0)
    {
        cout << "Could't find stream infomation." << endl;
        return -1;
    }

    videoStream = -1;

    for (i = 0; i < pFormatCtx->nb_streams; i++)
    {
        if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO)
        {
            videoStream = i;
        }
    }

    //如果videoStream为-1 说明没有找到视频流
    if (videoStream == -1)
    {
        cout << "Didn't find a video stream." << endl;
        return -1;
    }

   //=================================  查找解码器 ===================================//
    AVCodecContext* pCodecCtx = pFormatCtx->streams[videoStream]->codec;
    AVCodec* pCodec = avcodec_find_decoder(pCodecCtx->codec_id);
    if (pCodec == NULL)
    {
        cout << "Codec not found." << endl;
        return -1;
    }

    //================================  打开解码器 ===================================//
    if (avcodec_open2(pCodecCtx, pCodec, NULL) < 0)// 具体采用什么解码器ffmpeg经过封装  我们无须知道
    {
        cout << "Could not open codec." << endl;
        return -1;
    }

    //================================ 设置数据转换参数 ================================//
    SwsContext * img_convert_ctx;
    img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt, //源地址长宽以及数据格式
                                     pCodecCtx->width, pCodecCtx->height,AV_PIX_FMT_YUVJ420P,    //目的地址长宽以及数据格式
                                     SWS_BICUBIC, NULL, NULL, NULL);//算法类型  AV_PIX_FMT_YUVJ420P   AV_PIX_FMT_BGR24


    //==================================== 分配空间 ==================================//
    //一帧图像数据大小
    int numBytes = avpicture_get_size(AV_PIX_FMT_YUVJ420P, pCodecCtx->width,pCodecCtx->height);

    unsigned char *out_buffer;
    out_buffer = (unsigned char *) av_malloc(numBytes * sizeof(unsigned char));

    AVFrame * pFrame;
    pFrame = av_frame_alloc();
    AVFrame * pFrameRGB;
    pFrameRGB = av_frame_alloc();
    avpicture_fill((AVPicture *) pFrameRGB, out_buffer, AV_PIX_FMT_YUVJ420P,pCodecCtx->width, pCodecCtx->height);
    //会将pFrameRGB的数据按RGB格式自动"关联"到buffer  即pFrameRGB中的数据改变了 out_buffer中的数据也会相应的改变

    //=========================== 分配AVPacket结构体 ===============================//
    int y_size = pCodecCtx->width * pCodecCtx->height;
    AVPacket *packet = (AVPacket *) malloc(sizeof(AVPacket)); //分配一个packet
    av_new_packet(packet, y_size); //分配packet的数据

    //打印输入和输出信息:长度 比特率 流格式等
    av_dump_format(pFormatCtx, 0, file_path, 0); //输出视频信息

    int index = 0;

    while(1)
    {
        //===========================  读取视频信息 ===============================//
        if (av_read_frame(pFormatCtx, packet) < 0) //读取的是一帧视频  数据存入一个AVPacket的结构中
        {
            cout << "read error." << endl;
            return -1;
        }
        //此时数据存储在packet中

        //=========================== 对视频数据进行解码 ===============================//


        int got_picture;
        if (packet->stream_index == videoStream)
        {
            //视频解码函数  解码之后的数据存储在 pFrame中
            int ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet);
            if (ret < 0)
            {
                cout << "decode error." << endl;
                return -1;
            }

            //=========================== YUV=>RGB ===============================//

            if (got_picture)
            {
                //翻转图像
                //有多少个像素就有多少个y  对于yuv420p。data[0]存放的是y,对应地linesize[0]就指明一行有多少个y
                //data[1]存放的是u 个数是y的一半   data[2]存放的是v 个数是y的一半
                /*
                pFrame->data[0] += pFrame->linesize[0] * (pCodecCtx->height - 1);
                pFrame->linesize[0] *= -1;
                pFrame->data[1] += pFrame->linesize[1] * (pCodecCtx->height / 2 - 1);
                pFrame->linesize[1] *= -1;
                pFrame->data[2] += pFrame->linesize[2] * (pCodecCtx->height / 2 - 1);
                pFrame->linesize[2] *= -1;
                */

                //转换一帧图像
                sws_scale(img_convert_ctx,pFrame->data, pFrame->linesize, 0, pCodecCtx->height,  //源
                          pFrameRGB->data, pFrameRGB->linesize);                                 //目的

                //SaveAsBMP(pFrameRGB, pCodecCtx->width,pCodecCtx->height,index++,24); //保存图片
                SaveAsJPEG(pFrameRGB, pCodecCtx->width,pCodecCtx->height,index++); //保存图片
                if (index > 3)
                    {
                    FourToOne(800,600);
                       return 0; //这里我们就保存4张图片
                    }

            }
        }

        av_free_packet(packet);

    }
    

    av_free(out_buffer);
    av_free(pFrameRGB);
    avcodec_close(pCodecCtx);
    avformat_close_input(&pFormatCtx);


    return 0;
}


/*==================================================================================
 *                  将AVFrame(BGR24格式)保存为BMP格式的图片
 ===================================================================================*/
/*void SaveAsBMP(AVFrame *pFrameRGB, int width, int height, int index, int bpp)
{
    char buf[5] = {0};
    BITMAPFILEHEADER bmpheader;
    BITMAPINFOHEADER bmpinfo;
    FILE *fp;

    char *filename = new char[255];

    //文件存放路径
    sprintf_s(filename, 255, "%s%d.bmp", "E:/QT/test_ffmpegSavePic/ffmpeg/output/", index);
    if( (fp = fopen(filename,"w")) == NULL )
    {
        printf ("open file failed!\n");
        return;
    }

    bmpheader.bfType = 0x4d42;
    bmpheader.bfReserved1 = 0;
    bmpheader.bfReserved2 = 0;
    bmpheader.bfOffBits = sizeof(BITMAPFILEHEADER) + sizeof(BITMAPINFOHEADER);
    bmpheader.bfSize = bmpheader.bfOffBits + width*height*bpp/8;

    bmpinfo.biSize = sizeof(BITMAPINFOHEADER);
    bmpinfo.biWidth = width;
    bmpinfo.biHeight = height;
    bmpinfo.biPlanes = 1;
    bmpinfo.biBitCount = bpp;
    bmpinfo.biCompression = BI_RGB;
    bmpinfo.biSizeImage = (width*bpp+31)/32*4*height;
    bmpinfo.biXPelsPerMeter = 100;
    bmpinfo.biYPelsPerMeter = 100;
    bmpinfo.biClrUsed = 0;
    bmpinfo.biClrImportant = 0;

    fwrite(&bmpheader, sizeof(bmpheader), 1, fp);
    fwrite(&bmpinfo, sizeof(bmpinfo), 1, fp);
    fwrite(pFrameRGB->data[0], width*height*bpp/8, 1, fp);

    fclose(fp);
}
*/

/*==================================================================================
 *                  将AVFrame(YUV420格式)保存为JPEG格式的图片
 ===================================================================================*/
int SaveAsJPEG(AVFrame* pFrame, int width, int height, int index)
{
    // 输出文件路径
    char out_file[30];
     sprintf(out_file,"./%d.jpg",index+1);
   // sprintf_s(out_file, sizeof(out_file), "%s%d.jpg", "./", index);


    // 分配AVFormatContext对象
    AVFormatContext* pFormatCtx = avformat_alloc_context();

    // 设置输出文件格式
    pFormatCtx->oformat = av_guess_format("mjpeg", NULL, NULL);

    // 创建并初始化一个和该url相关的AVIOContext
    if( avio_open(&pFormatCtx->pb, out_file, AVIO_FLAG_READ_WRITE) < 0)
    {
        printf("Couldn't open output file.");
        return -1;
    }

    // 构建一个新stream
    AVStream* pAVStream = avformat_new_stream(pFormatCtx, 0);
    if( pAVStream == NULL )
    {
        return -1;
    }

    // 设置该stream的信息
    AVCodecContext* pCodecCtx = pAVStream->codec;

    pCodecCtx->codec_id   = pFormatCtx->oformat->video_codec;
    pCodecCtx->codec_type = AVMEDIA_TYPE_VIDEO;
    pCodecCtx->pix_fmt    = AV_PIX_FMT_YUVJ420P;
    pCodecCtx->width      = width;
    pCodecCtx->height     = height;
    pCodecCtx->time_base.num = 1;
    pCodecCtx->time_base.den = 25;

    //打印输出相关信息
    av_dump_format(pFormatCtx, 0, out_file, 1);


    //================================== 查找编码器 ==================================//
    AVCodec* pCodec = avcodec_find_encoder(pCodecCtx->codec_id);
    if( !pCodec )
    {
        printf("Codec not found.");
        return -1;
    }

    // 设置pCodecCtx的解码器为pCodec
    if( avcodec_open2(pCodecCtx, pCodec, NULL) < 0 )
    {
        printf("Could not open codec.");
        return -1;
    }

    //================================Write Header ===============================//
    avformat_write_header(pFormatCtx, NULL);

    int y_size = pCodecCtx->width * pCodecCtx->height;

    //==================================== 编码 ==================================//
    // 给AVPacket分配足够大的空间
    AVPacket pkt;
    av_new_packet(&pkt, y_size * 3);

    //
    int got_picture = 0;
    int ret = avcodec_encode_video2(pCodecCtx, &pkt, pFrame, &got_picture);
    if( ret < 0 )
    {
        printf("Encode Error.\n");
        return -1;
    }
    if( got_picture == 1 )
    {
        pkt.stream_index = pAVStream->index;
        ret = av_write_frame(pFormatCtx, &pkt);
    }

    av_free_packet(&pkt);

    //Write Trailer
    av_write_trailer(pFormatCtx);


    if( pAVStream )
    {
        avcodec_close(pAVStream->codec);
    }
    avio_close(pFormatCtx->pb);
    avformat_free_context(pFormatCtx);

    return 0;
}
void FourToOne(int x,int y)
{

    //添加云图效果
    int X_cloud=x;
    int Y_cloud=y;
    int m_fZoomIn=6;
    
    //读入四幅图片
    Mat image_1 = imread("1.jpg");
    Mat image_2 = imread("2.jpg");
    Mat image_3 = imread("3.jpg");
    Mat image_4 = imread("4.jpg");


    circle(image_2, Point(X_cloud, Y_cloud), 12*m_fZoomIn , Scalar(255, 0, 0), -1);
    circle(image_2, Point(X_cloud, Y_cloud), 10*m_fZoomIn , Scalar(200, 100, 0),-1);
    circle(image_2, Point(X_cloud, Y_cloud), 9*m_fZoomIn  , Scalar(100, 200, 0), -1);
    circle(image_2, Point(X_cloud, Y_cloud), 8*m_fZoomIn  , Scalar(0, 255, 0), -1);
    circle(image_2, Point(X_cloud, Y_cloud), 6*m_fZoomIn  , Scalar(0, 200, 255),-1);
    circle(image_2, Point(X_cloud, Y_cloud), 5*m_fZoomIn  , Scalar(0, 125, 255), -1);
    circle(image_2, Point(X_cloud, Y_cloud), 4*m_fZoomIn  , Scalar(0, 0, 255), -1);

    Rect rect(400,500,800,600);        //裁剪车牌图片
    image_3=image_3(rect);

    //归一化为相同的大小:320*240
    Size sz = Size(640, 480);
    resize(image_1, image_1, sz);
    resize(image_2, image_2, sz);
    resize(image_3, image_3, sz);
    resize(image_4, image_4, sz);

    //创建连接后存入的图像
    Mat result(sz.height*2+1, sz.width * 2 + 1, image_1.type());

    //四幅图像拷贝,中间的一行(列)作为图像间分割线
    //第1幅,拷贝到左上角
    Rect roi_rect = Rect(0, 0, sz.width, sz.height);
    image_1.copyTo(result(roi_rect));

    //第2幅,拷贝到右上角
    roi_rect = Rect(sz.width+1, 0, sz.width, sz.height);
    image_2.copyTo(result(roi_rect));

    //第3幅,拷贝到左下角
    roi_rect = Rect(0, sz.height+1, sz.width, sz.height);
    image_3.copyTo(result(roi_rect));

    //第4幅,拷贝到右下角
    roi_rect = Rect(sz.width+1, sz.height+1, sz.width, sz.height);
    image_4.copyTo(result(roi_rect));

    //显示四幅图像连接后的图像
    imshow("result", result);
    waitKey(0);
}


编译时加上-I/monchickey/ffmpeg/include -L/monchickey/ffmpeg/lib -lavdevice -lavfilter -lavformat -lavcodec -lswresample -lswscale -lavutil `pkg-config --cflags --libs opencv`

        

你可能感兴趣的:(ffmpeg,音视频合成)