FFmpeg入门[三] FFmpeg+SDL2实现简单视频播放器

只做了视频解码,所以没有声音

参考:https://blog.csdn.net/leixiaohua1020/article/details/38868499

作了一些更详细的注释,接下来一篇将总结用到的函数,以及数据结构

如果编译错误,提示 被声明为已否决,就打开项目——右键——属性——c/c++——SDL检测——写成否。

//// FFmpeg_1.cpp : 此文件包含 "main" 函数。程序执行将在此处开始并结束。
////
//
#include "pch.h"
//#include 
//
/**
 * 最简单的基于FFmpeg的视频播放器 2
 * Simplest FFmpeg Player 2
 *
 * 雷霄骅 Lei Xiaohua
 * [email protected]
 * 中国传媒大学/数字电视技术
 * Communication University of China / Digital TV Technology
 * http://blog.csdn.net/leixiaohua1020
 *
 * 第2版使用SDL2.0取代了第一版中的SDL1.2
 * Version 2 use SDL 2.0 instead of SDL 1.2 in version 1.
 *
 * 本程序实现了视频文件的解码和显示(支持HEVC,H.264,MPEG2等)。
 * 是最简单的FFmpeg视频解码方面的教程。
 * 通过学习本例子可以了解FFmpeg的解码流程。
 * This software is a simplest video player based on FFmpeg.
 * Suitable for beginner of FFmpeg.
 *
 */



#include 

#define __STDC_CONSTANT_MACROS

#ifdef _WIN32
 //Windows
extern "C"
{
#include "libavcodec/avcodec.h"
#include "libavformat/avformat.h"
#include "libswscale/swscale.h"
#include "libavutil/imgutils.h"
#include "SDL2/SDL.h"
};
#else
 //Linux...
#ifdef __cplusplus
extern "C"
{
#endif
#include 
#include 
#include 
#include 
#include 
#ifdef __cplusplus
};
#endif
#endif

//Output YUV420P data as a file 
#define OUTPUT_YUV420P 0

int main(int argc, char* argv[])
{
	AVFormatContext	*pFormatCtx;
	int				i, videoindex;
	AVCodecContext	*pCodecCtx;
	AVCodec			*pCodec;
	AVFrame	*pFrame, *pFrameYUV;
	unsigned char *out_buffer;
	AVPacket *packet;
	int y_size;
	int ret, got_picture;
	struct SwsContext *img_convert_ctx;

	char filepath[] = "jixinyuan.mp4";
	//SDL---------------------------
	int screen_w = 0, screen_h = 0;
	SDL_Window *screen;
	SDL_Renderer* sdlRenderer;
	SDL_Texture* sdlTexture;
	SDL_Rect sdlRect;

	FILE *fp_yuv;

	av_register_all();
	avformat_network_init();
	pFormatCtx = avformat_alloc_context(); 

	//打开视频文件
	// 调用avformat_open_input打开流,将信息填充到AVFormatContext中,所以AVFormatContext放的是流信息
	if (avformat_open_input(&pFormatCtx, filepath, NULL, NULL) != 0) {
		printf("无法打开视频文件.\n");
		return -1;
	}

	//上面打开视频文件的函数得到的流信息可能不完整,
	// 所以要进一步使用avformat_find_stream_info函数获取完整的流信息,并且填充到pFormatCtx指向的AVFormatContext结构体中
	// 当然在用完以后要释放pFormatCtx指向的空间。
	if (avformat_find_stream_info(pFormatCtx, NULL) < 0) {
		printf("找不到流信息.\n");
		return -1;
	}
	// start************下面一段就是判断有没有找到视频流
	videoindex = -1;
	for (i = 0; i < pFormatCtx->nb_streams; i++)
		if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) { 
			//如果当前流是视频流,就把视频流的编号记录下来
			videoindex = i;
			break;
		}
	if (videoindex == -1) { 
		//没有找到视频流
		printf("找不到视频流.\n");
		return -1;
	}
	//end*******************

	//*******接下来就要根据以上获取的信息找到相应的解码器
	// AVCodecContext	*pCodecCtx; AVCodecContext结构体描述了解码器的上下文信息,包含该流中所使用的有关编解码器的信息。
	pCodecCtx = pFormatCtx->streams[videoindex]->codec;
	// AVCodec	*pCodec; 存储编解码器信息的结构体
	// 查找解码器
	pCodec = avcodec_find_decoder(pCodecCtx->codec_id);
	if (pCodec == NULL) {
		printf("找不到解码器信息.\n");
		return -1;
	}
	//打开解码器
	if (avcodec_open2(pCodecCtx, pCodec, NULL) < 0) {
		printf("无法打开解码器.\n");
		return -1;
	}
	// AVFrame	*pFrame, *pFrameYUV;
	// av_frame_alloc()函数是初始化,仅仅分配实例化本身,没有分配内部的缓存
	pFrame = av_frame_alloc();
	pFrameYUV = av_frame_alloc();
	// unsigned char *out_buffer;
	// av_malloc是内存分配函数,分配了内存,并用out_buffer指针指向这块内存
	out_buffer = (unsigned char *)av_malloc(av_image_get_buffer_size(AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height, 1));
	av_image_fill_arrays(pFrameYUV->data, pFrameYUV->linesize, out_buffer,
		AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height, 1);

	// AVPacket *packet;
	// 这里分配了内存,在结束以后要释放
	packet = (AVPacket *)av_malloc(sizeof(AVPacket));

	//Output Info-----------------------------
	// 打印文件信息
	printf("--------------- File Information ----------------\n");
	av_dump_format(pFormatCtx, 0, filepath, 0);
	printf("-------------------------------------------------\n");

	// struct SwsContext *img_convert_ctx;
	// 初始化,输入输出图像的宽、高、颜色空间
	// 参数意义参考https://blog.csdn.net/qingkongyeyue/article/details/53141356
	img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt,
		pCodecCtx->width, pCodecCtx->height, AV_PIX_FMT_YUV420P, SWS_BICUBIC, NULL, NULL, NULL);

#if OUTPUT_YUV420P 
	// FILE *fp_yuv; 新建或者打开一个文件
	fp_yuv = fopen("output.yuv", "wb+");
#endif  
	// 初始化SDL
	if (SDL_Init(SDL_INIT_VIDEO | SDL_INIT_AUDIO | SDL_INIT_TIMER)) {
		printf("Could not initialize SDL - %s\n", SDL_GetError());
		return -1;
	}

	screen_w = pCodecCtx->width;
	screen_h = pCodecCtx->height;
//SDL 2.0 Support for multiple windows
	//弹出窗口
	screen = SDL_CreateWindow("Simplest ffmpeg player's Window", SDL_WINDOWPOS_UNDEFINED, SDL_WINDOWPOS_UNDEFINED,
		screen_w, screen_h,
		SDL_WINDOW_OPENGL);

	if (!screen) {
		printf("SDL: 不能创建窗口 - exiting:%s\n", SDL_GetError());
		return -1;
	}

	//基于窗口创建渲染器
	sdlRenderer = SDL_CreateRenderer(screen, -1, 0);
	//IYUV: Y + U + V  (3 planes)
	//YV12: Y + V + U  (3 planes)
	//创建纹理
	sdlTexture = SDL_CreateTexture(sdlRenderer, SDL_PIXELFORMAT_IYUV, SDL_TEXTUREACCESS_STREAMING, pCodecCtx->width, pCodecCtx->height);

	sdlRect.x = 0;
	sdlRect.y = 0;
	sdlRect.w = screen_w;
	sdlRect.h = screen_h;

//SDL End----------------------
	//开始读取视频了
	// 调用av_read_frame从流中读取数据帧到 AVPacket,AVPacket保存仍然是未解码的数据。
	while (av_read_frame(pFormatCtx, packet) >= 0) {
		if (packet->stream_index == videoindex) {
			// int ret, got_picture;
			// 调用avcodec_decode_video2将AVPacket的数据解码,并将解码后的数据填充到AVFrame中,AVFrame中保存的已经是解码后的原始数据。
			ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet);
			if (ret < 0) {
				printf("解码错误.\n");
				return -1;
			}
			if (got_picture) {
				// 做转换 参数意义:https://blog.csdn.net/qingkongyeyue/article/details/53141356
				sws_scale(img_convert_ctx, (const unsigned char* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height,
					pFrameYUV->data, pFrameYUV->linesize);

#if OUTPUT_YUV420P
				// int y_size;
				y_size = pCodecCtx->width*pCodecCtx->height;
				fwrite(pFrameYUV->data[0], 1, y_size, fp_yuv);    //Y 
				fwrite(pFrameYUV->data[1], 1, y_size / 4, fp_yuv);  //U
				fwrite(pFrameYUV->data[2], 1, y_size / 4, fp_yuv);  //V
#endif
				//SDL---------------------------
#if 0
				//设置纹理的数据
				SDL_UpdateTexture(sdlTexture, NULL, pFrameYUV->data[0], pFrameYUV->linesize[0]);
#else
				SDL_UpdateYUVTexture(sdlTexture, &sdlRect,
					pFrameYUV->data[0], pFrameYUV->linesize[0],
					pFrameYUV->data[1], pFrameYUV->linesize[1],
					pFrameYUV->data[2], pFrameYUV->linesize[2]);
#endif	

				SDL_RenderClear(sdlRenderer);
				//纹理复制给渲染器
				SDL_RenderCopy(sdlRenderer, sdlTexture, NULL, &sdlRect);
				//显示
				SDL_RenderPresent(sdlRenderer);
				//SDL End-----------------------

				//Delay 40ms
				SDL_Delay(40);
			}
		}
		// 释放AVpacket ,AVpacket是用来存放解码之前的数据
		av_free_packet(packet);
	}
	//flush decoder
	//FIX: Flush Frames remained in Codec
	while (1) {
		ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet);
		if (ret < 0)
			break;
		if (!got_picture)
			break;
		sws_scale(img_convert_ctx, (const unsigned char* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height,
			pFrameYUV->data, pFrameYUV->linesize);
#if OUTPUT_YUV420P
		int y_size = pCodecCtx->width*pCodecCtx->height;
		fwrite(pFrameYUV->data[0], 1, y_size, fp_yuv);    //Y 
		fwrite(pFrameYUV->data[1], 1, y_size / 4, fp_yuv);  //U
		fwrite(pFrameYUV->data[2], 1, y_size / 4, fp_yuv);  //V
#endif
		//SDL---------------------------
		SDL_UpdateTexture(sdlTexture, &sdlRect, pFrameYUV->data[0], pFrameYUV->linesize[0]);
		SDL_RenderClear(sdlRenderer);
		SDL_RenderCopy(sdlRenderer, sdlTexture, NULL, &sdlRect);
		SDL_RenderPresent(sdlRenderer);
		//SDL End-----------------------
		//Delay 40ms
		SDL_Delay(40);
	}
	// 释放 SwsContext的空间,SwsContext是用于视频图像的转换,http://lib.csdn.net/article/liveplay/66707?knId=1586
	sws_freeContext(img_convert_ctx);

#if OUTPUT_YUV420P 
	fclose(fp_yuv);
#endif 

	SDL_Quit();

	av_frame_free(&pFrameYUV);
	av_frame_free(&pFrame);
	avcodec_close(pCodecCtx);
	avformat_close_input(&pFormatCtx);

	return 0;
}

 

你可能感兴趣的:(FFmpeg)