FFmpeg的初识

前言:一直以来,都想下决定写博文,但是都因为懒惰没下手,这次被我老大强制要求我每周更新一篇博文,觉得也是一个契机。所以也就借这次机会开始试试。
音视频的编解码,一直给我的感觉是太难。FFmpeg作为国内外使用最为广泛的跨平台的音视频编解码的框架,包括暴风影音、QQ影音的内核都使用的是FFmpeg。FFmpeg学习起来也是非常痛苦的。下面来写一个简单的播放器的实例。(FFmpeg的导入过程我就不详细讲解了,网上很多实例,我这里使用的是iOS平台,代码直接移植应该是没有问题的)。
所有使用到FFmpeg框架的过程中,所有基于FFmpeg的应用程序中第一个被调用的函数是:

av_register_all();

这句代码是注册复用器、编码器等。只有调用了这个函数才能使用复用器、编码器等。
第二步:网络流的初始化(如果需要打开网络流的情况下)

avformat_network_init();

第三步:打开视频文件,函数原型如下

int avformat_open_input(AVFormatContext **ps, const char *url, AVInputFormat *fmt, AVDictionary **options)

该函数的第一个参数ps是一个指针类型,指向的是用户配置的AVFormatContext,第二个参数url是读取的视频地址(本地地址或网络地址都行),第三个参数fmt表示一个特定的输入格式,否则格式为空,一般情况为NULL即可,第四个参数optionls是指向带有AVFormatContext的字典的指针,一般情况为NULL即可
第四步:查找文件的流信息,函数原型如下

int avformat_find_stream_info(AVFormatContext *ic, AVDictionary **options);

该函数是获取视频流信息的方法,该方法的第一个参数为视频的AVFormatContext对象,即第三步中获取到的ps对象。第二个参数一般情况为NULL,如果非空,即是一个ic.nb_streams长数组的指针字典
第五步:输出文件的音、视频流的基本信息,帧率、分辨率、音频采样等等(此步骤为调试函数,可以不添加)

void av_dump_format(AVFormatContext *ic,
                    int index,
                    const char *url,
                    int is_output);

该函数为获取调试信息的方法,该方法中的第一个参数为视频的AVFormatContext对象,index为需要获取流的索引,url为视频的路径(本地路径或者网络路径都可以),is_output获取输入(0)还是输出(1)参数。
第六步:循环各个流,找到音、视频、字幕等流信息,并记录该流的编码信息

for (int i = 0; i < pFormatCtx->nb_streams; i++) {
        switch (pFormatCtx->streams[i]->codecpar->codec_type) {
            case AVMEDIA_TYPE_VIDEO: {
                videoindex = i;
            }
                break;

            default:
                break;
        }
    }

第七步:拷贝结构体信息(最新API才需要做这一步,当然目前按照老方法还是可以使用的)

int avcodec_parameters_to_context(AVCodecContext *codec,
                                  const AVCodecParameters *par);

该函数是拷贝par中的信息到codec中,因为最新api中废弃了AVFormatContext中的AVCodecContext字段,改为AVCodecParameters了,结构体发生了变化,而很多其他方法中仍然使用的是AVCodecContext,所以这里我们需要做一个简单的转换。
第八步:在库中查找支持该格式的解码器

AVCodec *avcodec_find_decoder(enum AVCodecID id);

函数的参数即需要查找流的id,可以从第七步中获取到的AVCodecContext结构体中得到
第九步:打开解码器

int avcodec_open2(AVCodecContext *avctx, const AVCodec *codec, AVDictionary **options);

该方法的第一个参数avctx即是上面得到的AVCodecContext,codec为第八步查找到的解码器参数,options为包含AVCodecContext和编解码器的字典指针。
第十步:分配指针来存储帧

av_frame_alloc();

第十一步:逐帧读取音、视频数据

 while(true)
 {
     av_read_frame();//读取一个帧(到最后帧则break)
     avcodec_decode_video2();//解码该帧
     sws_getCachedContext()sws_scale();//把该帧转换(渲染)成RGB
     SaveFrame();//对前5帧保存成ppm图形文件(这个是自定义函数,非API)
     av_free_packet();//释放本次读取的帧内存
 }

总结起来的代码如下

    AVFormatContext *pFormatCtx;
    int             videoindex;
    AVCodecParameters   *pCodecParam;
    AVCodecContext *pCodeCtx;
    AVCodec         *pCodec;
    AVFrame *pFrame,*pFrameYUV;
    uint8_t *out_buffer;
    AVPacket *packet;
    int ret;

    const char *filepath = [[[NSBundle mainBundle] pathForResource:@"cuc_ieschool" ofType:@"mp4"] UTF8String];

    av_register_all();
    avformat_network_init();
    pFormatCtx = avformat_alloc_context();
    if (avformat_open_input(&pFormatCtx, filepath, NULL, NULL) != 0) {
        NSLog(@"Couldn't open input Stream.\n");
        return ;
    }
    if (avformat_find_stream_info(pFormatCtx, NULL) < 0) {
        NSLog(@"Coundn't find stream.\n");
        return;
    }
    videoindex = -1;
    for (int i = 0; i < pFormatCtx->nb_streams; i++) {
        switch (pFormatCtx->streams[i]->codecpar->codec_type) {
            case AVMEDIA_TYPE_VIDEO:
            {
                videoindex = i;
            }
                break;

            default:
                break;
        }
    }
    if (videoindex == -1) {
        NSLog(@"视频读取失败");
        return;
    }
    //av_find_best_stream(pFormatCtx, AVMEDIA_TYPE_VIDEO, -1, -1, &pCodec, 0);
    pCodecParam = pFormatCtx->streams[videoindex]->codecpar;
    pCodeCtx = avcodec_alloc_context3(NULL);
    if (avcodec_parameters_to_context(pCodeCtx, pCodecParam) < 0) {
        NSLog(@"not convert");
        return;
    }
    pCodec = avcodec_find_decoder(pCodeCtx->codec_id);

    if(avcodec_open2(pCodeCtx, pCodec, NULL) < 0){
        printf("Couldn't open codec.\n");
        return;
    }

    if (pCodec==NULL) {
        NSLog(@"获取解码失败");
        return;
    }

    pFrame = av_frame_alloc();
    pFrameYUV = av_frame_alloc();
    out_buffer = (uint8_t *)av_malloc(av_image_get_buffer_size(AV_PIX_FMT_YUV420P, pCodecParam->width, pCodecParam->height, 1));
    av_image_fill_arrays(pFrame->data, pFrame->linesize, out_buffer, AV_PIX_FMT_YUV420P, pCodecParam->width, pCodecParam->height, 1);
    packet = (AVPacket *)av_malloc(sizeof(AVPacket));

    av_dump_format(pFormatCtx, 0, filepath, 0);

    while (av_read_frame(pFormatCtx, packet) >= 0) {
        if (packet->stream_index == videoindex) {
            ret = avcodec_send_packet(pCodeCtx, packet);
            if (ret < 0 && ret != AVERROR(EAGAIN) && ret != AVERROR_EOF) {
                av_packet_unref(packet);
                return ;
            }

            ret = avcodec_receive_frame(pCodeCtx, pFrameYUV);
            if (ret < 0 && ret != AVERROR(EAGAIN) && ret != AVERROR_EOF) {
                av_packet_unref(packet);
                return;
            }
            else {
                [playerView displayYUV420pData:pFrameYUV];
            }
            if (pFrameYUV->pict_type == AV_PICTURE_TYPE_I) {
                const int64_t frameDuration = av_frame_get_pkt_duration(pFrameYUV);
                NSLog(@"frameduration = %lld", pFrameYUV->pts);

            }

        }
        else {
            NSLog(@"audio");
        }
        av_packet_unref(packet);
    }

    av_frame_free(&pFrameYUV);
    av_frame_free(&pFrame);
    avcodec_close(pCodeCtx);
    avcodec_parameters_free(&pCodecParam);
    //avformat_close_input(&pFormatCtx);

该代码实现了逐帧读取视频画面,音频以及时间线控制下次继续聊。

第一次写博文,不好的地方望大家多指教

你可能感兴趣的:(FFmpeg)