compute_frame_duration函数定义在FFmpeg源码(本文演示用的FFmpeg源码版本为7.0.1)的源文件libavformat/demux.c中:
/**
* Return the frame duration in seconds. Return 0 if not available.
*/
static void compute_frame_duration(AVFormatContext *s, int *pnum, int *pden,
AVStream *st, AVCodecParserContext *pc,
AVPacket *pkt)
{
FFStream *const sti = ffstream(st);
AVRational codec_framerate = sti->avctx->framerate;
int frame_size, sample_rate;
*pnum = 0;
*pden = 0;
switch (st->codecpar->codec_type) {
case AVMEDIA_TYPE_VIDEO:
if (st->r_frame_rate.num && (!pc || !codec_framerate.num)) {
*pnum = st->r_frame_rate.den;
*pden = st->r_frame_rate.num;
} else if ((s->iformat->flags & AVFMT_NOTIMESTAMPS) &&
!codec_framerate.num &&
st->avg_frame_rate.num && st->avg_frame_rate.den) {
*pnum = st->avg_frame_rate.den;
*pden = st->avg_frame_rate.num;
} else if (st->time_base.num * 1000LL > st->time_base.den) {
*pnum = st->time_base.num;
*pden = st->time_base.den;
} else if (codec_framerate.den * 1000LL > codec_framerate.num) {
int ticks_per_frame = (sti->codec_desc &&
(sti->codec_desc->props & AV_CODEC_PROP_FIELDS)) ? 2 : 1;
av_reduce(pnum, pden,
codec_framerate.den,
codec_framerate.num * (int64_t)ticks_per_frame,
INT_MAX);
if (pc && pc->repeat_pict) {
av_reduce(pnum, pden,
(*pnum) * (1LL + pc->repeat_pict),
(*pden),
INT_MAX);
}
/* If this codec can be interlaced or progressive then we need
* a parser to compute duration of a packet. Thus if we have
* no parser in such case leave duration undefined. */
if (sti->codec_desc &&
(sti->codec_desc->props & AV_CODEC_PROP_FIELDS) && !pc)
*pnum = *pden = 0;
}
break;
case AVMEDIA_TYPE_AUDIO:
if (sti->avctx_inited) {
frame_size = av_get_audio_frame_duration(sti->avctx, pkt->size);
sample_rate = sti->avctx->sample_rate;
} else {
frame_size = av_get_audio_frame_duration2(st->codecpar, pkt->size);
sample_rate = st->codecpar->sample_rate;
}
if (frame_size <= 0 || sample_rate <= 0)
break;
*pnum = frame_size;
*pden = sample_rate;
break;
default:
break;
}
}
该函数的作用是:计算某路视频流或音频流的packet占用的时间值。
形参s:输入型参数。指向一个AVFormatContext结构体。
形参pnum:输出型参数。执行compute_frame_duration函数后,如果该路流为视频,(*pnum)÷(*pden)会变为一帧视频pakcet占用的时间,单位为秒;如果该路流为音频,*pnum会变为该音频packet(形参pkt指向的packet)占用的以AVStream的time_base为单位的时间值,(*pnum)÷(*pden)会变为该音频packet占用的以秒为单位的时间值。
形参pden:输出型参数。执行compute_frame_duration函数后,如果该路流为视频,(*pnum)÷(*pden)会变为一帧视频pakcet占用的时间,单位为秒;如果该路流为音频,*pden会变为该音频的采样频率(单位为Hz),(*pnum)÷(*pden)会变为该音频packet占用的以秒为单位的时间值。
形参st:输入型参数。指向一个AVStream结构体。
形参pc:输入型参数。指向一个AVCodecParserContext结构体。
形参pkt:输入型参数。指向一个AVPacket结构体。
返回值:无。
compute_frame_duration函数内部首先会通过switch、case语句判断该路流是视频还是音频:
switch (st->codecpar->codec_type) {
该路流为视频时,以视频压缩编码格式为H.264为例子,相当于执行了下面代码:
case AVMEDIA_TYPE_VIDEO:
int ticks_per_frame = (sti->codec_desc &&
(sti->codec_desc->props & AV_CODEC_PROP_FIELDS)) ? 2 : 1;
av_reduce(pnum, pden,
codec_framerate.den,
codec_framerate.num * (int64_t)ticks_per_frame,
INT_MAX);
if (pc && pc->repeat_pict) {
av_reduce(pnum, pden,
(*pnum) * (1LL + pc->repeat_pict),
(*pden),
INT_MAX);
}
sti->codec_desc和sti->codec_desc->props是通过avformat_open_input函数中的avcodec_descriptor_get函数得到的,具体可以参考:《FFmpeg源码:avcodec_descriptor_get函数分析》。
int ticks_per_frame = (sti->codec_desc && (sti->codec_desc->props & AV_CODEC_PROP_FIELDS)) ? 2 : 1;
比如对于H.264,通过语句:avcodec_descriptor_get(AV_CODEC_ID_H264)得到的AVCodecDescriptor结构为:
{
.id = AV_CODEC_ID_H264,
.type = AVMEDIA_TYPE_VIDEO,
.name = "h264",
.long_name = "H.264 / AVC / MPEG-4 AVC / MPEG-4 part 10",
.props = 30,
.profiles = ff_h264_profiles,
},
所以对于H.264,sti->codec_desc为true,sti->codec_desc->props为30。而宏定义AV_CODEC_PROP_FIELDS为:
/**
* Video codec supports separate coding of fields in interlaced frames.
*/
#define AV_CODEC_PROP_FIELDS (1 << 4)
所以满足条件:sti->codec_desc && (sti->codec_desc->props & AV_CODEC_PROP_FIELDS)为true。所以对于H.264,变量ticks_per_frame值为2。
av_reduce函数的用法可以参考:《FFmpeg源码:av_reduce函数分析》。codec_framerate.den为视频帧率的分母,codec_framerate.num为视频帧率的分子,所以对于H.264,执行下面的av_reduce函数后,(*pden) ÷ (*pnum)会变为视频帧率的两倍:
av_reduce(pnum, pden,
codec_framerate.den,
codec_framerate.num * (int64_t)ticks_per_frame,
INT_MAX);
对于H.264,满足条件pc && pc->repeat_pict为true,所以会继续执行av_reduce函数。对于H.264下面语句相当于执行了语句:av_reduce(pnum, pden ,(*pnum) * (2), (*pden), INT_MAX);执行完后(*pden) ÷ (*pnum)会变为视频帧率:
if (pc && pc->repeat_pict) {
av_reduce(pnum, pden,
(*pnum) * (1LL + pc->repeat_pict),
(*pden),
INT_MAX);
}
我们都知道视频帧率是视频每秒钟播放的帧数,所以视频帧率的倒数即(*pnum)÷(*pden)就是一帧视频pakcet占用的时间,单位为秒。
该路流为音频时,相当于执行了下面代码:
case AVMEDIA_TYPE_AUDIO:
frame_size = av_get_audio_frame_duration2(st->codecpar, pkt->size);
sample_rate = st->codecpar->sample_rate;
*pnum = frame_size;
*pden = sample_rate;
通过av_get_audio_frame_duration2函数得到该音频packet占用的时间值(关于该函数可以参考:《FFmpeg源码:get_audio_frame_duration、av_get_audio_frame_duration2函数分析》)。通过语句:sample_rate = st->codecpar->sample_rate得到该路音频的采样频率:
frame_size = av_get_audio_frame_duration2(st->codecpar, pkt->size);
sample_rate = st->codecpar->sample_rate;
让*pnum变为该音频packet(形参pkt指向的packet)占用的以AVStream的time_base为单位的时间值,让*pden变为该音频的采样频率(单位为Hz)。(*pnum)÷(*pden)就是该音频packet占用的以秒为单位的时间值:
*pnum = frame_size;
*pden = sample_rate;