只做了视频解码,所以没有声音
参考:https://blog.csdn.net/leixiaohua1020/article/details/38868499
作了一些更详细的注释,接下来一篇将总结用到的函数,以及数据结构
如果编译错误,提示 被声明为已否决,就打开项目——右键——属性——c/c++——SDL检测——写成否。
//// FFmpeg_1.cpp : 此文件包含 "main" 函数。程序执行将在此处开始并结束。
////
//
#include "pch.h"
//#include
//
/**
* 最简单的基于FFmpeg的视频播放器 2
* Simplest FFmpeg Player 2
*
* 雷霄骅 Lei Xiaohua
* [email protected]
* 中国传媒大学/数字电视技术
* Communication University of China / Digital TV Technology
* http://blog.csdn.net/leixiaohua1020
*
* 第2版使用SDL2.0取代了第一版中的SDL1.2
* Version 2 use SDL 2.0 instead of SDL 1.2 in version 1.
*
* 本程序实现了视频文件的解码和显示(支持HEVC,H.264,MPEG2等)。
* 是最简单的FFmpeg视频解码方面的教程。
* 通过学习本例子可以了解FFmpeg的解码流程。
* This software is a simplest video player based on FFmpeg.
* Suitable for beginner of FFmpeg.
*
*/
#include
#define __STDC_CONSTANT_MACROS
#ifdef _WIN32
//Windows
extern "C"
{
#include "libavcodec/avcodec.h"
#include "libavformat/avformat.h"
#include "libswscale/swscale.h"
#include "libavutil/imgutils.h"
#include "SDL2/SDL.h"
};
#else
//Linux...
#ifdef __cplusplus
extern "C"
{
#endif
#include
#include
#include
#include
#include
#ifdef __cplusplus
};
#endif
#endif
//Output YUV420P data as a file
#define OUTPUT_YUV420P 0
int main(int argc, char* argv[])
{
AVFormatContext *pFormatCtx;
int i, videoindex;
AVCodecContext *pCodecCtx;
AVCodec *pCodec;
AVFrame *pFrame, *pFrameYUV;
unsigned char *out_buffer;
AVPacket *packet;
int y_size;
int ret, got_picture;
struct SwsContext *img_convert_ctx;
char filepath[] = "jixinyuan.mp4";
//SDL---------------------------
int screen_w = 0, screen_h = 0;
SDL_Window *screen;
SDL_Renderer* sdlRenderer;
SDL_Texture* sdlTexture;
SDL_Rect sdlRect;
FILE *fp_yuv;
av_register_all();
avformat_network_init();
pFormatCtx = avformat_alloc_context();
//打开视频文件
// 调用avformat_open_input打开流,将信息填充到AVFormatContext中,所以AVFormatContext放的是流信息
if (avformat_open_input(&pFormatCtx, filepath, NULL, NULL) != 0) {
printf("无法打开视频文件.\n");
return -1;
}
//上面打开视频文件的函数得到的流信息可能不完整,
// 所以要进一步使用avformat_find_stream_info函数获取完整的流信息,并且填充到pFormatCtx指向的AVFormatContext结构体中
// 当然在用完以后要释放pFormatCtx指向的空间。
if (avformat_find_stream_info(pFormatCtx, NULL) < 0) {
printf("找不到流信息.\n");
return -1;
}
// start************下面一段就是判断有没有找到视频流
videoindex = -1;
for (i = 0; i < pFormatCtx->nb_streams; i++)
if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
//如果当前流是视频流,就把视频流的编号记录下来
videoindex = i;
break;
}
if (videoindex == -1) {
//没有找到视频流
printf("找不到视频流.\n");
return -1;
}
//end*******************
//*******接下来就要根据以上获取的信息找到相应的解码器
// AVCodecContext *pCodecCtx; AVCodecContext结构体描述了解码器的上下文信息,包含该流中所使用的有关编解码器的信息。
pCodecCtx = pFormatCtx->streams[videoindex]->codec;
// AVCodec *pCodec; 存储编解码器信息的结构体
// 查找解码器
pCodec = avcodec_find_decoder(pCodecCtx->codec_id);
if (pCodec == NULL) {
printf("找不到解码器信息.\n");
return -1;
}
//打开解码器
if (avcodec_open2(pCodecCtx, pCodec, NULL) < 0) {
printf("无法打开解码器.\n");
return -1;
}
// AVFrame *pFrame, *pFrameYUV;
// av_frame_alloc()函数是初始化,仅仅分配实例化本身,没有分配内部的缓存
pFrame = av_frame_alloc();
pFrameYUV = av_frame_alloc();
// unsigned char *out_buffer;
// av_malloc是内存分配函数,分配了内存,并用out_buffer指针指向这块内存
out_buffer = (unsigned char *)av_malloc(av_image_get_buffer_size(AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height, 1));
av_image_fill_arrays(pFrameYUV->data, pFrameYUV->linesize, out_buffer,
AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height, 1);
// AVPacket *packet;
// 这里分配了内存,在结束以后要释放
packet = (AVPacket *)av_malloc(sizeof(AVPacket));
//Output Info-----------------------------
// 打印文件信息
printf("--------------- File Information ----------------\n");
av_dump_format(pFormatCtx, 0, filepath, 0);
printf("-------------------------------------------------\n");
// struct SwsContext *img_convert_ctx;
// 初始化,输入输出图像的宽、高、颜色空间
// 参数意义参考https://blog.csdn.net/qingkongyeyue/article/details/53141356
img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt,
pCodecCtx->width, pCodecCtx->height, AV_PIX_FMT_YUV420P, SWS_BICUBIC, NULL, NULL, NULL);
#if OUTPUT_YUV420P
// FILE *fp_yuv; 新建或者打开一个文件
fp_yuv = fopen("output.yuv", "wb+");
#endif
// 初始化SDL
if (SDL_Init(SDL_INIT_VIDEO | SDL_INIT_AUDIO | SDL_INIT_TIMER)) {
printf("Could not initialize SDL - %s\n", SDL_GetError());
return -1;
}
screen_w = pCodecCtx->width;
screen_h = pCodecCtx->height;
//SDL 2.0 Support for multiple windows
//弹出窗口
screen = SDL_CreateWindow("Simplest ffmpeg player's Window", SDL_WINDOWPOS_UNDEFINED, SDL_WINDOWPOS_UNDEFINED,
screen_w, screen_h,
SDL_WINDOW_OPENGL);
if (!screen) {
printf("SDL: 不能创建窗口 - exiting:%s\n", SDL_GetError());
return -1;
}
//基于窗口创建渲染器
sdlRenderer = SDL_CreateRenderer(screen, -1, 0);
//IYUV: Y + U + V (3 planes)
//YV12: Y + V + U (3 planes)
//创建纹理
sdlTexture = SDL_CreateTexture(sdlRenderer, SDL_PIXELFORMAT_IYUV, SDL_TEXTUREACCESS_STREAMING, pCodecCtx->width, pCodecCtx->height);
sdlRect.x = 0;
sdlRect.y = 0;
sdlRect.w = screen_w;
sdlRect.h = screen_h;
//SDL End----------------------
//开始读取视频了
// 调用av_read_frame从流中读取数据帧到 AVPacket,AVPacket保存仍然是未解码的数据。
while (av_read_frame(pFormatCtx, packet) >= 0) {
if (packet->stream_index == videoindex) {
// int ret, got_picture;
// 调用avcodec_decode_video2将AVPacket的数据解码,并将解码后的数据填充到AVFrame中,AVFrame中保存的已经是解码后的原始数据。
ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet);
if (ret < 0) {
printf("解码错误.\n");
return -1;
}
if (got_picture) {
// 做转换 参数意义:https://blog.csdn.net/qingkongyeyue/article/details/53141356
sws_scale(img_convert_ctx, (const unsigned char* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height,
pFrameYUV->data, pFrameYUV->linesize);
#if OUTPUT_YUV420P
// int y_size;
y_size = pCodecCtx->width*pCodecCtx->height;
fwrite(pFrameYUV->data[0], 1, y_size, fp_yuv); //Y
fwrite(pFrameYUV->data[1], 1, y_size / 4, fp_yuv); //U
fwrite(pFrameYUV->data[2], 1, y_size / 4, fp_yuv); //V
#endif
//SDL---------------------------
#if 0
//设置纹理的数据
SDL_UpdateTexture(sdlTexture, NULL, pFrameYUV->data[0], pFrameYUV->linesize[0]);
#else
SDL_UpdateYUVTexture(sdlTexture, &sdlRect,
pFrameYUV->data[0], pFrameYUV->linesize[0],
pFrameYUV->data[1], pFrameYUV->linesize[1],
pFrameYUV->data[2], pFrameYUV->linesize[2]);
#endif
SDL_RenderClear(sdlRenderer);
//纹理复制给渲染器
SDL_RenderCopy(sdlRenderer, sdlTexture, NULL, &sdlRect);
//显示
SDL_RenderPresent(sdlRenderer);
//SDL End-----------------------
//Delay 40ms
SDL_Delay(40);
}
}
// 释放AVpacket ,AVpacket是用来存放解码之前的数据
av_free_packet(packet);
}
//flush decoder
//FIX: Flush Frames remained in Codec
while (1) {
ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet);
if (ret < 0)
break;
if (!got_picture)
break;
sws_scale(img_convert_ctx, (const unsigned char* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height,
pFrameYUV->data, pFrameYUV->linesize);
#if OUTPUT_YUV420P
int y_size = pCodecCtx->width*pCodecCtx->height;
fwrite(pFrameYUV->data[0], 1, y_size, fp_yuv); //Y
fwrite(pFrameYUV->data[1], 1, y_size / 4, fp_yuv); //U
fwrite(pFrameYUV->data[2], 1, y_size / 4, fp_yuv); //V
#endif
//SDL---------------------------
SDL_UpdateTexture(sdlTexture, &sdlRect, pFrameYUV->data[0], pFrameYUV->linesize[0]);
SDL_RenderClear(sdlRenderer);
SDL_RenderCopy(sdlRenderer, sdlTexture, NULL, &sdlRect);
SDL_RenderPresent(sdlRenderer);
//SDL End-----------------------
//Delay 40ms
SDL_Delay(40);
}
// 释放 SwsContext的空间,SwsContext是用于视频图像的转换,http://lib.csdn.net/article/liveplay/66707?knId=1586
sws_freeContext(img_convert_ctx);
#if OUTPUT_YUV420P
fclose(fp_yuv);
#endif
SDL_Quit();
av_frame_free(&pFrameYUV);
av_frame_free(&pFrame);
avcodec_close(pCodecCtx);
avformat_close_input(&pFormatCtx);
return 0;
}