FFMPEG小白-day04

首先,向雷霄骅,雷神致敬

FFMPEG小白-day04_第1张图片
cover

昨天插了一条html的东西,今天补档ffmpeg的编程,通过ffmpeg编写一个最简单的程序,今天的程序主要的功能是

打印视频文件的相关信息
输出H.264文件
输出YUV文件

不过在编程之前,再来将前天的ffmpeg结构体框架图拿出来


FFMPEG小白-day04_第2张图片
FFMPEG解码的结构.png

ok这张图能够对下面的编程有所帮助,你可以根据这张图去知道哪个结构体或者数组是属于那个大的结构体的。

再来介绍下该结构体中的一些重要的信息

AVStream(在AVFormatContext结构体下方)

* id:序号
* codec:该流对应的AVCodecContext
* time_base:该流的时基(用来为视频或者音频设定播放位置的)
* r_frame_rate:该流的帧率(一秒钟有多少个画面)

AVCodecContext(编解码器的一些信息)

* codec:编解码器的AVCodec
* width,height:图像的宽高(只针对视频)
* pix_fmt:像素格式(只针对视频)
* sample_rate:采样率(只针对音频)
* channels:声道数(只针对音频)
* sample_fmt:采样格式(只针对音频)

AVCodec

* name:编解码器名称
* long_name:编解码器长名称
* type:编解码器类型(音频或者视频)
* id:编解码器ID
* 一些编解码的接口函数

AVPacket(可以理解成装H.264的结构体)

* pts:显示时间戳(即视频应该几分,几秒的时候显示到界面上,他的单位是整数的,将来会和上文中的时基进行换算,换算成为我们常用的时分秒这样的单位)
* dts:解码时间戳
注意:视频的码流存储的次序和播放视频的次序并不是顺序的,所以有两个时间戳,即一个显示的一个解码的。
* data:压缩编码数据(h.264数据)
* size:压缩编码数据大小
* stream_index:所属的AVStream(标识是属于视频流还是音频流)

AVFrame(可以理解成装YUV的结构体)

* data:解码后的图像像素数据(音频采样数据即yuv数据)
* linesize:对视频来说是图像中的一行像素的大小;而对于音频来说是整个音频帧的大小
* width,height:图像的宽高(只针对视频)
* key_frame:是否为关键帧(只针对视频,红颜色的帧是关键帧)
* pict_type:帧类型(只针对视频)。例如I,P,B。

下文中要用到的小知识:解码后的数据需要经过sws_scale()函数处理

 解码后yuv格式的视频像素数据保存在AVFrame的data[0]、data[1]、data[2]中。
 但是这些像素值并不是连续存储的,每行有效像素之后存储了一些无效像素,以
 高度Y数据为例,data[0]中一共包含了linesize[0]*height个数据。但是出于优化等方面
 的考虑,linesize[0]实际上并不等于宽度width,而是一个比宽度大一些的值。因此需要
 使用ses_scale()进行转换。转换后去除了无效数据,width和linesize[0]就取值相同了。

 最后用大白话概括一下吧,就是说如果不用这个sws_scale()函数的话,直接播放的yuv数据是
 带有黑边的,只有经过sws_scale()函数裁剪完了之后,才能正常的播放视频。

该函数效果如下图


FFMPEG小白-day04_第3张图片
经过sws_scale()函数处理过程.png

ok,先把大体的代码 up 上来,我这里做了必要的注释,应该都能看懂,看不懂的话可以留言联系我

    // simple_sdl2_player.cpp : 定义控制台应用程序的入口点。

//

include "stdio.h"

define __STDC_CONSTANT_MACROS

include "stdafx.h"

//引入ffmpeg中的相关头文件
extern "C" {

include "libavcodec\avcodec.h"

include "libavformat/avformat.h"

include "libswscale/swscale.h"

}

int main(int argc, char* argv[])
{
//声明了AVFormatContext视频数据指针
AVFormatContext *pFormatCtx;
//声明变量i和视频的位置索引
int i, videoindex;
//解码器信息指针
AVCodecContext *pCodecCtx;
//解码器指针
AVCodec *pCodec;
//像素数据指针
AVFrame *pFrame, *pFrameYUV;
//可以理解成缓冲数组
uint8_t *out_buffer;
//h.264数据指针
AVPacket *packet;
int y_size;
int ret, got_picture;
struct SwsContext *img_convert_ctx;
//输入文件路径
char filepath[] = "Titanic.ts";

int frame_cnt;
//注册所有相关组件
av_register_all();
//初始化网络
avformat_network_init();
//分配空间
pFormatCtx = avformat_alloc_context();
//打开视频流
//如果没有找到avformat_open_input()方法如果返回0表示获取成功,反之则失败
if (avformat_open_input(&pFormatCtx, filepath, NULL, NULL) != 0) {
    printf("Couldn't open input stream.\n");
    return -1;
}
//获取视频流信息 如果avformat_find_stream_info()结果大于等于0表示获取流成功
if (avformat_find_stream_info(pFormatCtx, NULL)<0) {
    printf("Couldn't find stream information.\n");
    return -1;
}
//ok 打开了视频并且获取了视频流 ,设置视频索引值默认值
videoindex = -1;
//循环遍历输入视频的av_Stream个数,依次判断av_Stream中的codec_type类型,如果是视频类型,进行记录,一般来说,这个值一般为0
for (i = 0; inb_streams; i++)
    if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
        videoindex = i;
        break;
    }
//如果没有找到视频的索引,说明并不是一个视频文件
if (videoindex == -1) {
    printf("Didn't find a video stream.\n");
    return -1;
}
//取得视频的解码器信息
pCodecCtx = pFormatCtx->streams[videoindex]->codec;
//得到的解码器
pCodec = avcodec_find_decoder(pCodecCtx->codec_id);
//解码器未找到
if (pCodec == NULL) {
    printf("Codec not found.\n");
    return -1;
}
//解码器和解码器信息的话,开始解码,如果返回值为0,说明无法开始解码
if (avcodec_open2(pCodecCtx, pCodec, NULL)<0) {
    printf("Could not open codec.\n");
    return -1;
}
/*
* 在此处添加输出视频信息的代码
* 取自于pFormatCtx,使用fprintf()
*/

//初始化yuv容器,并且初始化内存空间
pFrame = av_frame_alloc();
pFrameYUV = av_frame_alloc();

out_buffer = (uint8_t *)av_malloc(avpicture_get_size(PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height));
//设置图像内容
avpicture_fill((AVPicture *)pFrameYUV, out_buffer, PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);
//初始化h.264容器
packet = (AVPacket *)av_malloc(sizeof(AVPacket));
//Output Info-----------------------------
printf("--------------- File Information ----------------\n");
av_dump_format(pFormatCtx, 0, filepath, 0);
printf("-------------------------------------------------\n");
//上文说的对图形进行宽度上方的裁剪,以便于显示的更好
img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt,
    pCodecCtx->width, pCodecCtx->height, PIX_FMT_YUV420P, SWS_BICUBIC, NULL, NULL, NULL);

frame_cnt = 0;
//如果读流成功
while (av_read_frame(pFormatCtx, packet) >= 0) {
    if (packet->stream_index == videoindex) {
        /*
        * 在此处添加输出H264码流的代码
        * 取自于packet,使用fwrite()
        */
        ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet);
        if (ret < 0) {
            printf("Decode Error.\n");
            return -1;
        }
        if (got_picture) {
            //上文说的对图形进行宽度上方的裁剪,以便于显示的更好
            sws_scale(img_convert_ctx, (const uint8_t* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height,
                pFrameYUV->data, pFrameYUV->linesize);
            printf("Decoded frame index: %d\n", frame_cnt);

            /*
            * 在此处添加输出YUV的代码
            * 取自于pFrameYUV,使用fwrite()
            */
            //计数
            frame_cnt++;

        }
    }
    //释放packet
    av_free_packet(packet);
}
//释放相关资源
sws_freeContext(img_convert_ctx);
av_frame_free(&pFrameYUV);
av_frame_free(&pFrame);
avcodec_close(pCodecCtx);
avformat_close_input(&pFormatCtx);

return 0;

}

ok,注释都加上了,然后就是要做一些输出了,我们先把一个ts视频文件的时长 格式打印一下。


FFMPEG小白-day04_第4张图片
输出文件信息.png

ok,现在,我们先尝试下把这些信息输出到一个文件里面去


FFMPEG小白-day04_第5张图片
输出视频信息到文件.png

ok,现在剩下输出h264文件和yuv文件了,不过这里先不帖出来了,下篇文章会贴出来的,有跟着学的同学们可以自己试一下,如何输出h264文件和yuv文件~~

持续更新,欢迎关注~~~
下方是我的微信公众号,关注获取更多学习资源

FFMPEG小白-day04_第6张图片
image

你可能感兴趣的:(FFMPEG小白-day04)