视频编解码学习四 边解码边播放视频

  上一节说到了播放本地的yuv文件,这节我们省去解码保存yuv文件,直接边解码边播放。流程还是同直接解码流程一样。

视频编解码学习四 边解码边播放视频_第1张图片
流程图

SDL2.0显示YUV的流程图:


视频编解码学习四 边解码边播放视频_第2张图片
image

源码

#include 
#include 

#define LOG_I(...) __android_log_print(ANDROID_LOG_ERROR , "main", __VA_ARGS__)

#include "SDL.h"
#include "SDL_log.h"
#include "SDL_main.h"

////avcodec:编解码(最重要的库)
//#include "libavcodec/avcodec.h"
////avformat:封装格式处理
//#include "libavformat/avformat.h"
////avutil:工具库(大部分库都需要这个库的支持)
//#include "libavutil/imgutils.h"
////swscale:视频像素数据格式转换
//#include "libswscale/swscale.h"
////导入音频采样数据格式转换库
//#include "libswresample/swresample.h"

extern "C" {
#include "libavcodec/avcodec.h"
#include "libavformat/avformat.h"
#include "libavutil/imgutils.h"
#include "libswscale/swscale.h"
}
int main(int argc, char *argv[]) {
    const char *cinputFilePath = "/storage/emulated/0/Test.mov";
    //第一步:注册所有组件
    av_register_all();
    //支持网络流输入
    avformat_network_init();
    //第二步:打开视频输入文件
    //参数一:封装格式上下文->AVFormatContext->包含了视频信息(视频格式、大小等等...)
    AVFormatContext *pFormatCtx = avformat_alloc_context();
    //参数二:打开文件(入口文件)->url
    int avformat_open_result = avformat_open_input(&pFormatCtx, cinputFilePath, NULL, NULL);
    if (avformat_open_result != 0) {
        //获取异常信息
        char *error_info;
        av_strerror(avformat_open_result, error_info, 1024);
        __android_log_print(ANDROID_LOG_INFO, "main", "异常信息:%s", error_info);
        return 0;
    }
    //第三步:查找视频文件信息
    //参数一:封装格式上下文->AVFormatContext
    //参数二:配置
    //返回值:0>=返回OK,否则失败
    int avformat_find_stream_info_result = avformat_find_stream_info(pFormatCtx, NULL);
    if (avformat_find_stream_info_result < 0) {
        //获取失败
        char *error_info;
        av_strerror(avformat_find_stream_info_result, error_info, 1024);
        __android_log_print(ANDROID_LOG_INFO, "main", "异常信息:%s", error_info);
        return 0;
    }
    // Dump valid information onto standard error可忽略
    av_dump_format(pFormatCtx, 0, cinputFilePath, false);

    //第四步:查找解码器
    //第一点:获取当前解码器是属于什么类型解码器->找到了视频流
    //音频解码器、视频解码器、字幕解码器等等...
    //获取视频解码器流引用->指针
    int av_stream_index = -1;
    for (int i = 0; i < pFormatCtx->nb_streams; ++i) {
        //循环遍历每一流
        //视频流、音频流、字幕流等等...
        if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
            //找到了
            av_stream_index = i;
            break;
        }
    }
    if (av_stream_index == -1) {
        __android_log_print(ANDROID_LOG_INFO, "main", "%s", "没有找到视频流");
        return 0;
    }



    //第二点:根据视频流->查找到视频解码器上下文->视频压缩数据
    AVCodecContext *avcodec_context = pFormatCtx->streams[av_stream_index]->codec;
    //第三点:根据解码器上下文->获取解码器ID
    AVCodec *avcodec = avcodec_find_decoder(avcodec_context->codec_id);
    if (avcodec == NULL) {
        __android_log_print(ANDROID_LOG_INFO, "main", "%s", "没有找到视频解码器");
        return 0;
    }
    //第五步:打开解码器
    int avcodec_open2_result = avcodec_open2(avcodec_context, avcodec, NULL);
    if (avcodec_open2_result != 0) {
        char *error_info;
        av_strerror(avcodec_open2_result, error_info, 1024);
        __android_log_print(ANDROID_LOG_INFO, "main", "异常信息:%s", error_info);
        return 0;
    }
    //输出视频信息
    //输出:文件格式
    __android_log_print(ANDROID_LOG_INFO, "main", "文件格式:%s", pFormatCtx->iformat->name);
    //输出:解码器名称
    __android_log_print(ANDROID_LOG_INFO, "main", "解码器名称:%s", avcodec->name);
    //第六步:循环读取视频帧,进行循环解码->输出YUV420P视频->格式:yuv格式
    //读取帧数据换成到哪里->缓存到packet里面
    AVPacket *av_packet = (AVPacket *) av_malloc(sizeof(AVPacket));
    //输入->环境一帧数据->缓冲区->类似于一张图
    AVFrame *av_frame_in = av_frame_alloc();
    //输出->帧数据->视频像素数据格式->yuv420p
    AVFrame *av_frame_out_yuv420p = av_frame_alloc();
    //解码的状态类型(0:表示解码完毕,非0:表示正在解码)
    int av_decode_result, current_frame_index = 0;
    //只有指定了AVFrame的像素格式、画面大小才能真正分配内存
    //缓冲区
    //作用:计算音频/视频占用的字节数,开辟对应的内存空间
    //参数一:缓冲区格式
    //参数二:缓冲区宽度
    //参数三:缓冲区高度
    //参数四:字节对齐(设置通用1)
    int image_size = av_image_get_buffer_size(AV_PIX_FMT_YUV420P, avcodec_context->width, avcodec_context->height,1);
    //开辟缓存空间
    uint8_t *frame_buffer_out = (uint8_t *)av_malloc(image_size);
    //对开辟的缓存空间指定填充数据格式
    //参数一:数据
    //参数二:行数
    //参数三:缓存区
    //参数四:格式
    //参数五:宽度
    //参数六:高度
    //参数七:字节对齐(设置通用1)
    av_image_fill_arrays(av_frame_out_yuv420p->data, av_frame_out_yuv420p->linesize,frame_buffer_out,
                         AV_PIX_FMT_YUV420P,avcodec_context->width, avcodec_context->height,1);
    //准备一个视频像素数据格式上下文
    //参数一:输入帧数据宽
    //参数二:输入帧数据高
    //参数三:输入帧数据格式
    //参数四:输出帧数据宽
    //参数五:输出帧数据高
    //参数六:输出帧数据格式->AV_PIX_FMT_YUV420P
    //参数七:视频像素数据格式转换算法类型
    //参数八:字节对齐类型(C/C++里面)->提高读取效率
    SwsContext *sws_context = sws_getContext(avcodec_context->width,
                                             avcodec_context->height,
                                             avcodec_context->pix_fmt,
                                             avcodec_context->width,
                                             avcodec_context->height,
                                             AV_PIX_FMT_YUV420P,
                                             SWS_BICUBIC, NULL, NULL, NULL);
    // 加载SDL
    //第一步:初始化SDL多媒体框架->SDL_Init
    if (SDL_Init(SDL_INIT_VIDEO | SDL_INIT_AUDIO | SDL_INIT_TIMER) == -1) {
        LOG_I("SDL_Init failed %s", SDL_GetError());
        return 0;
    }
    LOG_I("SDL_Init Success!");
    //第二步:初始化SDL窗口
    //参数一:窗口名称->要求必需是UTF-8编码
    //参数二:窗口在屏幕上面X坐标
    //参数三:窗口在屏幕上面Y坐标
    //参数四:窗口在屏幕上面宽
    int width = 640;
    //参数五:窗口在屏幕上面高
    int height = 352;
    //参数六:窗口状态(打开的状态:SDL_WINDOW_OPENGL)
    SDL_Window *sdl_window = SDL_CreateWindow("SDL播放器",
                                              SDL_WINDOWPOS_CENTERED,
                                              SDL_WINDOWPOS_CENTERED,
                                              width,
                                              height,
                                              SDL_WINDOW_OPENGL);
    if (sdl_window == NULL) {
        LOG_I("窗口创建失败");
        return 0;
    }
    //第三步:创建渲染器->渲染窗口(OpenGL ES)
    //最新一期VIP课程
    //参数一:渲染目标窗口
    //参数二:从哪里开始渲染(-1:默认从第一个为止开始)
    //参数三:渲染类型
    //SDL_RENDERER_SOFTWARE:软件渲染
    //...
    SDL_Renderer *sdl_renderer = SDL_CreateRenderer(sdl_window, -1, 0);
    //第四步:创建纹理
    //参数一:纹理目标渲染器
    //参数二:渲染格式
    //参数三:绘制方式(SDL_TEXTUREACCESS_STREAMING:频繁绘制)
    //参数四:纹理宽
    //参数五:纹理高
    SDL_Texture *sdl_texture = SDL_CreateTexture(sdl_renderer,
                                                 SDL_PIXELFORMAT_IYUV,
                                                 SDL_TEXTUREACCESS_STREAMING,
                                                 width,
                                                 height);
    SDL_Rect sdl_rect;
    sdl_rect.x = 0;
    sdl_rect.y = 0;
    sdl_rect.w = width;
    sdl_rect.h = height;
    //>=0:说明有数据,继续读取
    //<0:说明读取完毕,结束
    while (av_read_frame(pFormatCtx, av_packet) >= 0) {
        //解码什么类型流(视频流、音频流、字幕流等等...)
        if (av_packet->stream_index == av_stream_index) {
            //扩展知识面(有更新)
            //解码一帧视频流数据
            //分析:avcodec_decode_video2函数
            //参数一:解码器上下文
            //参数二:一帧数据
            //参数三:got_picture_ptr->是否正在解码(0:表示解码完毕,非0:表示正在解码)
            //参数四:一帧压缩数据(对压缩数据进行解码操作)
            //返回值:av_decode_result == 0表示解码一帧数据成功,否则失败
            //av_decode_result = avcodec_decode_video2(avcodec_context,av_frame_in,&got_picture_ptr,av_packet);
            //新的API操作
            //发送一帧数据->接收一帧数据
            //发送一帧数据
            avcodec_send_packet(avcodec_context, av_packet);
            //接收一帧数据->解码一帧
            av_decode_result = avcodec_receive_frame(avcodec_context, av_frame_in);
            //解码出来的每一帧数据成功之后,将每一帧数据保存为YUV420格式文件类型(.yuv文件格式)
            if (av_decode_result == 0) {
                //sws_scale:作用将视频像素数据格式->yuv420p格式
                //输出.yuv文件->视频像素数据格式文件->输出到文件API
                //参数一:视频像素数据格式->上下文
                //参数二:输入数据
                //参数三:输入画面每一行的大小
                //参数四:输入画面每一行的要转码的开始位置
                //参数五:每一帧数据高
                //参数六:输出画面数据
                //参数七:输出画面每一行的大小
                sws_scale(sws_context,
                          (const uint8_t *const *) av_frame_in->data,
                          av_frame_in->linesize,
                          0,
                          avcodec_context->height,
                          av_frame_out_yuv420p->data,
                          av_frame_out_yuv420p->linesize);
                //  sart SDL  //
                //SDL渲染实现
                //设置纹理数据
                //参数一:目标纹理对象
                //参数二:渲染区域(NULL:表示默认屏幕窗口宽高)
                //参数三:视频像素数据
                //参数四:帧画面宽
                SDL_UpdateTexture(sdl_texture, NULL, av_frame_out_yuv420p->data[0],
                                  av_frame_out_yuv420p->linesize[0]);
                //先清空
                SDL_RenderClear(sdl_renderer);
                //再渲染
                SDL_RenderCopy(sdl_renderer, sdl_texture, NULL, &sdl_rect);
                //第七步:显示帧画面
                SDL_RenderPresent(sdl_renderer);
                //第八步:延时渲染(没渲染一帧间隔时间)
                SDL_Delay(20);
                // end SDL //
                current_frame_index++;
                __android_log_print(ANDROID_LOG_INFO, "main", "当前遍历第%d帧", current_frame_index);
            }
        }
    }
    //第七步:关闭解码组件->释放内存
    SDL_DestroyTexture(sdl_texture);
    SDL_DestroyRenderer(sdl_renderer);
    //第十步:推出SDL程序
    SDL_Quit();
    av_packet_free(&av_packet);
    av_frame_free(&av_frame_in);
    av_frame_free(&av_frame_out_yuv420p);
    avcodec_close(avcodec_context);
    avformat_free_context(pFormatCtx);
    return 0;
}

FFmpeg在解码一帧之后转换像素数据格式,并没有立马进行渲染,这里延时了20毫秒,如果没有延时这20毫秒,视频一下子就可以播放完毕了。实际在播放视频时,SDL延时不能使用固定值,需要根据视频的pts来计算,同时要考虑视频和音频直接的同步,这里先不做进一步研究了,之后的博客会给出延时时间的计算。

下载

https://github.com/samychen/SDL_FFmpeg_Tutorial

你可能感兴趣的:(视频编解码学习四 边解码边播放视频)