音视频同步原理

简介

本文主要描述如何以音频的播放时长为基准,将视频同步到音频上以实现音频的同步播放。音视频同步指的是视频和音频同步,也就是说播放的声音和视频显示的画面保持一致。

正文

  • 视频帧率(Frame Rate):指的是一秒显示的帧数
  • 音频采样率(Sample Rate):指的是一秒播放的样本个数

我们可以通过简单的计算得出one Frame 的播放时间或者是 one Sample的播放时间。以这样的速度音频和视频各自进行播放,在理想情况下,音视频是会同步的。但是,实际情况下,音视频会慢慢出现不同步的。不是视频快了,就是音频快了,很难准确的同步。这就需要一种随着时间会线性增长的量,视频和音频的播放速度都以此为准。播放快了就减慢播放速度,播放快了就加快播放速度。所以,视频和音频的同步实际上是一个动态同步的过程,同步是暂时的,不同步是常态。以选择的播放速度量为基准,快的等待慢点,慢得则加快速度。

播放速度标准量的选择一般来说有三种:

  • 将视频同步到音频上,就是以音频的播放速度为基准来同步视频。视频比音频慢了,加快其播放速度;快了,则减慢其播放速度。
  • 将音频同步到视频上,就是以视频的播放速度为基准来同步音频。
  • 将视频和音频同步外部的时钟上,选择一个外部时钟为基准,视频和音频的播放速度都以该时钟为标准。

DTS和PTS

在音视频流中的包都含有DTSPTS,我们以此作为选择基准,到底是播放快了还是慢了,或者正以同步的速度播放。

  • DTS:Decoding Time Stamp 解码时间戳——告诉解码器packet解码顺序
  • PTS:Presenting Time Stamp 显示时间戳——指示从packet中解码出来的数据的显示顺序

计算视频Frame的显示时间

在计算某一帧的显示时间之前,我们要先了解一下FFMpeg中的时间单位:Time Base。AVStream的TimeBase用来显示的时间戳。

/**
    * This is the fundamental unit of time (in seconds) in terms
    * of which frame timestamps are represented.
    *
    */
AVRational time_base;

可以看出,AVStream是以秒(s)为单位来表示Frame的显示时间,其类型是AVRational。

PTS为一个uint64_t的整型,其单位就是time_base。表示视频长度的duration也是一个uint64_t,st为一个AVStream的指针,av_q2d将一个AVRational转换为双精度浮点数。那么使用如下方法就可以计算出一个视频流的时间长度:

time(second) = st->duration * av_q2d(st->time_base)

同样的方法也可以得到视频中某帧的显示时间:

timestamp(second) = pts * av_q2d(st->time_base)

也就是说,得到了Frame的PTS后,就可以得到该frame显示的时间戳。

得到Frame的PTS

通过上面的描述知道,如果有了Frame的PTS就计算出帧的显示的时间。下面的代码展示了在从packet中解码出frame后,如何得到frame的PTS。

ret = avcodec_receive_frame(video->video_ctx, frame);
if (ret < 0 && ret != AVERROR_EOF)
    continue;

if ((pts = av_frame_get_best_effort_timestamp(frame)) == AV_NOPTS_VALUE)
    pts = 0;

pts *= av_q2d(video->stream->time_base);

pts = video->synchronize(frame, pts);

frame->opaque = &pts;

注意,这里的pts是double型,因为将其乘以了time_base,代表了该帧在视频中的时间位置(秒为单位)。有可能存在调用av_frame_get_best_effort_timestamp得不到一个正确的PTS,这样的情况放在函数synchronize中处理。

double VideoState::synchronize(AVFrame *srcFrame, double pts)
{
    double frame_delay;

    if (pts != 0)
        video_clock = pts; // Get pts,then set video clock to it
    else
        pts = video_clock; // Don't get pts,set it to video clock

    frame_delay = av_q2d(stream->codec->time_base);
    frame_delay += srcFrame->repeat_pict * (frame_delay * 0.5);

    video_clock += frame_delay;

    return pts;
}

获取Audio Clock

Audio Clock,也就是Audio的播放时长,可以在Audio时更新Audio Clock。在函数audio_decode_frame中解码新的packet,这是可以设置Auddio clock为该packet的PTS

if (pkt.pts != AV_NOPTS_VALUE)
{
    audio_state->audio_clock = av_q2d(audio_state->stream->time_base) * pkt.pts;
}

由于一个packet中可以包含多个帧,packet中的PTS比真正的播放的PTS可能会早很多,可以根据Sample Rate 和 Sample Format来计算出该packet中的数据可以播放的时长,再次更新Audio clock 。

// 每秒钟音频播放的字节数 sample_rate * channels * sample_format(一个sample占用的字节数)
audio_state->audio_clock += static_cast(data_size) / (2 * audio_state->stream->codec->channels *            
        audio_state->stream->codec->sample_rate);

上面乘以2是因为sample format是16位的无符号整型,占用2个字节。
有了Audio clock后,在外面获取该值的时候却不能直接返回该值,因为audio缓冲区的可能还有未播放的数据,需要减去这部分的时间

double AudioState::get_audio_clock()
{
    int hw_buf_size = audio_buff_size - audio_buff_index;
    int bytes_per_sec = stream->codec->sample_rate * audio_ctx->channels * 2;

    double pts = audio_clock - static_cast(hw_buf_size) / bytes_per_sec;

    
    return pts;
}

用audio缓冲区中剩余的数据除以每秒播放的音频数据得到剩余数据的播放时间,从Audio clock中减去这部分的值就是当前的audio的播放时长。

同步

现在有了video中Frame的显示时间,并且得到了作为基准时间的音频播放时长Audio clock ,可以将视频同步到音频了。

  • 用当前帧的PTS - 上一播放帧的PTS得到一个延迟时间
  • 用当前帧的PTS和Audio Clock进行比较,来判断视频的播放速度是快了还是慢了
  • 根据上一步额判断结果,设置播放下一帧的延迟时间。

使用要播放的当前帧的PTS和上一帧的PTS差来估计播放下一帧的延迟时间,并根据video的播放速度来调整这个延迟时间,以实现视音频的同步播放。
具体实现:

// 将视频同步到音频上,计算下一帧的延迟时间
// 使用要播放的当前帧的PTS和上一帧的PTS差来估计播放下一帧的延迟时间,并根据video的播放速度来调整这个延迟时间
double current_pts = *(double*)video->frame->opaque;
double delay = current_pts - video->frame_last_pts;
if (delay <= 0 || delay >= 1.0)
    delay = video->frame_last_delay;

video->frame_last_delay = delay;
video->frame_last_pts = current_pts;

// 根据Audio clock来判断Video播放的快慢
double ref_clock = media->audio->get_audio_clock();

double diff = current_pts - ref_clock;// diff < 0 => video slow,diff > 0 => video quick

double threshold = (delay > SYNC_THRESHOLD) ? delay : SYNC_THRESHOLD;

// 调整播放下一帧的延迟时间,以实现同步
if (fabs(diff) < NOSYNC_THRESHOLD) // 不同步
{
    if (diff <= -threshold) // 慢了,delay设为0
        delay = 0;
    else if (diff >= threshold) // 快了,加倍delay
        delay *= 2;
}
video->frame_timer += delay;
double actual_delay = video->frame_timer - static_cast(av_gettime()) / 1000000.0;
if (actual_delay <= 0.010)
    actual_delay = 0.010; 

// 设置一下帧播放的延迟
schedule_refresh(media, static_cast(actual_delay * 1000 + 0.5));

frame_last_ptsframe_last_delay是上一帧的PTS以及设置的播放上一帧时的延迟时间。

  • 首先根据当前播放帧的PTS和上一播放帧的PTS估算出一个延迟时间。
  • 用当前帧的PTS和Audio clock相比较判断此时视频播放的速度是快还是慢了
  • 视频播放过快则加倍延迟,过慢则将延迟设置为0
  • frame_timer保存着视频播放的延迟时间总和,这个值和当前时间点的差值就是播放下一帧的真正的延迟时间
  • schedule_refresh 设置播放下一帧的延迟时间。

总结

本文主要描述如何利用audio的播放时长作为基准,将视频同步到音频上以实现视音频的同步播放。

你可能感兴趣的:(音视频同步原理)