FFmpeg视频解码,保存原始YUV数据(使用最新FFmpeg4.1)

网上文章都太老,本文基于FFmpeg4.1,没有使用任何弃用的API,要运行先配置环境

解码流程关键函数:

  1. avformat_open_input()
  2. avformat_find_stream_info()
  3. av_read_frame()
  4. avcodec_send_packet()提供原始数据包数据作为解码器的输入
  5. avcodec_receive_frame()从解码器返回解码的输出数据。

YUV色彩模型,Y信号分量为亮度,U、V信号分量色度
YUV是不同于RGB的一种色彩模型,具体百度FFFmpeg解码出来一般是yuv420p数据(AV_PIX_FMT_YUV420P)

解码后的数据储存在AVFrame *frame_yuv中
frame_yuv->data[0] //y
frame_yuv->data[1] //u
frame_yuv->data[2] //v

frame_yuv->linesize[0] //y宽度
frame_yuv->linesize[1] //u宽度
frame_yuv->linesize[2] //v宽度

如果是yuv420p,那么每一帧 y:u:v 数据大小之比为 4:1:1
这里可以把yuv数据分别看成三个矩形,y长为视频每帧宽度width,宽为视频每帧高度height
那么u和v矩形大小一样,都是宽度为width/2,高度为height/2的矩形。

frame_yuv->linesize[0]代表解码出来的y分量宽度,它和视频每帧宽度width有什么不同呢?

The linesize may be larger than the size of usable data – theremay be extra padding present for performance reasons.
翻译:linesize 可能大于可用数据的大小——出于性能原因,可能存在额外的填充。
我理解的意思就是linesize[0]可能会大于y分量实际宽度(视频宽度width)。

如何把每一帧yuv数据保存在文件中?

frame_yuv->data[0]是个一维数组(注意不是frame_yuv->data,是frame_yuv->data[0]),一维数组如何装下二维矩形数据呢(上面描述的矩形),视频解码后把数据一行一行地按着顺序储存frame_yuv->data[0]里面,所以我们也要一行一行读取。
第i需要偏移i * frame_yuv->linesize[0] 起始地址就是 frame_yuv->data[0] + i * frame_yuv->linesize[0],然后再取出width长度的数据就是第i行y分量,y分量高度为height,所以i的值从0到height。u、v分量高度为frame_yuv->height / 2,在frame_yuv->data[1、2] 中宽度为frame_yuv->linesize[1、2] ,实际宽度为frame_yuv->height / 2。
yuv文件好像没有头部信息,所以我们不用管头部。

int loop = frame_yuv->height / 2;
int len_uv = frame_yuv->width / 2;//u、v分量
for(int i = 0;i < frame_yuv->height;i++){
    out.write((char *)(frame_yuv->data[0] + i * frame_yuv->linesize[0]),frame_yuv->width);
}
for(int i = 0;i < loop;i++){
    out.write((char *)(frame_yuv->data[1] + i * frame_yuv->linesize[1]),len_uv);
}
for(int i = 0;i < loop;i++){
    out.write((char *)(frame_yuv->data[2] + i * frame_yuv->linesize[2]),len_uv);
}

这里只保存了100帧,文件大小为widthheight1.5*100 Byte,文件很大,100帧1080p就300多M,25fps的话只能播放4s,可以看出视频压缩的重要性
文件保存后如何验证呢?

验证

使用 ffplay.exe可以播放yuv文件
命令:

ffplay -video_size 1920x1080 -i “E:\out.yuv”

按照实际视频尺寸设置参数,设置不正确的话播放会错误

以下是完整代码:

#pragma comment(lib,"avformat.lib")
#pragma comment(lib,"avcodec.lib")
#pragma comment(lib,"avutil.lib")
#pragma comment(lib,"avdevice.lib")
#pragma comment(lib,"swresample.lib")
#pragma comment(lib,"postproc.lib")
#pragma comment(lib,"swscale.lib")

#include 
#include 
extern "C"{
#include 
}

using std::cin;
using std::cout;
using std::endl;
using std::ofstream;
using std::ios_base;

int main(){
    AVFormatContext *fmt_ctx = nullptr;
    const char * in_path = "E:\\whys_pr.mp4";
    const char * out_path = "E:\\out.yuv";
    if(avformat_open_input(&fmt_ctx,in_path,nullptr,nullptr) != 0){
    cout << "avformat_open_input错误" << endl;
    system("pause");
    return 1;
}

    //打印出视频信息
    //av_dump_format(fmt_ctx,0,in_path,0);

    if(avformat_find_stream_info(fmt_ctx,nullptr) < 0){
        avformat_free_context(fmt_ctx);
        cout << "avformat_find_stream_info错误" << endl;
        system("pause");
        return 1;
    }

    AVCodec *codec;
    AVCodecContext * cd_ctx;
    unsigned video_index = 0;

    for(unsigned i = 0;fmt_ctx->nb_streams;i++){
        //寻找到视频流
        if(fmt_ctx->streams[i]->codecpar->codec_type == AVMEDIA_TYPE_VIDEO){
            video_index = i;

            //获取到视频流
            AVStream *streams = fmt_ctx->streams[i];
            //streams->r_frame_rate
            cout << ((float)streams->avg_frame_rate.num) / streams->avg_frame_rate.den << "fps,";

            //视频编码类型
            cout << avcodec_get_name(streams->codecpar->codec_id) << endl;

            codec = avcodec_find_decoder(streams->codecpar->codec_id);
            if(!codec){
                cout << "没有找到解码器" << endl;
                system("pause");
                return 1;
            }

            //分配AVCodecContext空间
            cd_ctx = avcodec_alloc_context3(codec);

            //填充数据
            avcodec_parameters_to_context(cd_ctx,streams->codecpar);

            //视频尺寸
            cout << streams->codecpar->width << 'x' << streams->codecpar->height << endl;
            break;
        }
    }

    /* open it */

    if(avcodec_open2(cd_ctx,codec,NULL) < 0){
        cout << "avcodec_open2错误" << endl;
        system("pause");
        return 1;
    }

    AVPacket *pkt = av_packet_alloc();
    if(!pkt){
        cout << "av_packet_alloc错误" << endl;
        system("pause");
        return 1;
    }

    AVFrame *frame_yuv = av_frame_alloc();
        if(!frame_yuv){
        cout << "av_frame_alloc错误" << endl;
        system("pause");
        return 1;
    }

    //打开输出视频的文件
    ofstream out = ofstream(out_path,ios_base::binary);

    int frame_count = 0;//记录获取的帧数

    while(av_read_frame(fmt_ctx,pkt) >= 0 && frame_count < 100){//这里只获取100帧了

        //找到视频流
        if(pkt->stream_index == video_index){
            if(avcodec_send_packet(cd_ctx,pkt) != 0){
                cout << "avcodec_send_packet错误" << endl;
                break;
             }
            while(avcodec_receive_frame(cd_ctx,frame_yuv) == 0){

                frame_count++;

                //AV_PIX_FMT_YUV420P,  ///< planar YUV 4:2:0, 12bpp, (1 Cr & Cb sample per 2x2 Y samples)
                cout << "解码到第" << cd_ctx->frame_number << "帧" << endl;
                for(int i = 0;i < frame_yuv->height;i++){
                    out.write((char *)(frame_yuv->data[0] + i * frame_yuv->linesize[0]),frame_yuv->width);
                }

                int loop = frame_yuv->height / 2;
                int len_uv = frame_yuv->width / 2;

                for(int i = 0;i < loop;i++){
                    out.write((char *)(frame_yuv->data[1] + i * frame_yuv->linesize[1]),len_uv);
                }
                for(int i = 0;i < loop;i++){
                    out.write((char *)(frame_yuv->data[2] + i * frame_yuv->linesize[2]),len_uv);
                }
            }
        }
    }

    cout << "解码完毕,文件保存在" << out_path << endl;

    out.close();

    av_packet_free(&pkt);
    avcodec_close(cd_ctx);
    avcodec_free_context(&cd_ctx);
    av_frame_free(&frame_yuv);
    avformat_close_input(&fmt_ctx);

    system("pause");
    return 0;
}

你可能感兴趣的:(FFmpeg)