webrtc中的拥塞控制算法

采用两种在因特网上做实时通信的拥塞控制方法,基于延迟的控制和基于丢包的控制。

基于丢包的控制器:需要测量丢包率,测量往返时间rtt和REMB(Receiver Estimated Max Bitrate,最大接收带宽估计),计算目标发送比特率。

基于延迟的控制器:或者在RTP接收端解析包到达信息,或在RTP发送端处从接收到的反馈信息中,计算最大比特率,并传给丢包控制器。

基于丢包的控制器和基于延迟的控制器二者共同完成了拥塞控制算法。

两个控制器都运行在发送端可以通过包反馈协议来实现。RTP接收器会记录每一个收到包的到达时间和传输层的序列号,这些信息会使用传输层反馈消息周期性的发回发送端。建议反馈间隔是每收到一个视频帧一次,或对于音频流或多媒体流,至少每隔30ms一次。如果反馈开销需要限制,间隔可以增加到100ms。

当媒体编码器生成完数据,会传给节奏队列,节奏器每隔突发时间间隔发送一组包到网络。建议突发时间为5ms,一组包的尺寸是目标比特率和突发时间的乘积。

1. 基于延迟的控制器

算法可以进一步分为4个部分:预滤波,到达时间滤波器,过度使用检测器和码率控制器。

1.1 预滤波

预滤波将合并突发到达的包组,如果下面两个条件满足包组会合并为同一个包组。

在突发时间间隔内发送的一个序列包组成一个包组。

一个包的inter-arrival时间低于burst_time,inter-group延迟变量d(i)低于0被认为是当前包组的一部分。

1.2 到达时间模型

定义inter-arrival时间,t(i) - t(i-1),为两个包组到达时间差。相应的,inter-departure时间,T(i) - T(i-1),定义为两个包组起程的时间差。最后,inter-group间延迟变量,d(i),定义为二者之差。或解释为包组i和包组i-1传输时间差。

d(i) = t(i) - t(i-1) - (T(i) - T(i-1))

d(i) = m(i) + v(i)

m(i)是均值,噪声项v(i)代表未被模型抓到的网络抖动和其他延迟效应。

1.3 到达时间滤波

我们想估计包组间延迟变量的平均值m(i),用以检测链路是否过载,之前使用kalman滤波器来估计。

基本原理是:

接收器会得到一个包组间延迟的测量值e,该值是随机变量,标准差是v

同时根据以往的延迟变量的历史值也可以得到一个当前延迟变量的预测值z,它也是随机变量,标准差是q

因为两个值都是不确定的,kalman滤波器使用了一个协方差来取两个值的平均:


webrtc中的拥塞控制算法_第1张图片

然后最佳估计就是:


最新版本采用趋势线拟合法:

现在的码控使用指数滑动平均来统计包组延迟变量的平均值。

假设我们与一串时间序列

{a1,a2,a3,...,at−1,at,...}

那么,这串时间序列的指数滑动平均值就是:

mvt=decay∗mvt−1+(1−decay)∗at

这是一个滑动窗口,mvt的值只和这个窗口内的 ai 有关

1.4 over-use detector

到达时间滤波器的输出,包组间延迟变量估计值m(i),会与一个阈值del_var_th(i)进行比较。高于阈值会被认为是过度使用。

over-use: m(i) > del_var_th(i)

under_use: m(i) < -del_var_th(i)

normal: -del_var_th(i) < m(i) < del_var_th(i)

阈值del_var_th对于算法的活力和性能有显著影响。

如果使用固定阈值,算法的流控制将使链路很快陷于饥饿状态。

有必要动态调整阈值以在大部分场景中获得一个好的性能。

算法根据下述函数动态改变阈值:

del_var_th(i) =del_var_th(i-1) + (t(i)-t(i-1)) *Kg(i) * (|m(i)|-del_var_th(i-1))

当m(i)离开范围[-del_var_th(i-1),del_var_th(i-1)]时,阈值会增加,当回到范围时,阈值会减少。以此来避免上述问题的产生。

1.5 码率控制器

码率控制子系统有三个状态:增加,降低,保持。增加是在没有检测到拥塞时的状态;降低是检测到拥塞的状态;保持是在进入增加状态前等待队列排空的状态。

输出一个更新的可用带宽估计A_hat

状态机(空白表示保持在当前状态)


webrtc中的拥塞控制算法_第2张图片

R_hat(i)是基于延迟的控制器在T秒窗口测得的输入比特率。

R_hat(i) = 1/T * sum(L(j)) for j from 1 to N(i)

N(i)是过去T秒收到的包数,L(j)是数据包j的负载尺寸。窗口推荐为0.5到1秒。

A_hat(i) = beta * R_hat(i)

beta典型的选择值处于[0.8, 0.95]的范围,推荐是0.85.

在乘性增过程,估计带宽最多按每秒8%递增

eta = 1.08^min(time_since_last_update_ms / 1000, 1.0)

A_hat(i) = eta * A_hat(i-1)

在加性递增过程,估计按每反馈时间间隔增加最多半个包尺寸。

过载后,系统转入降低状态,带宽乘性递减的比率beta:

A_hat(i) = beta * R_hat(i)

2. 基于丢包的控制器

基于丢包的控制器的输入是往返时间,丢失的包,和从基于延迟的控制器发来的可用带宽估计A_hat。基于丢包的控制器计算得到的可用带宽估计表示为As_hat。

丢包率在2-10%,发端可用带宽估计As_hat(i)保持不变。

丢包率超过10%,新的带宽估计会被计算出来As_hat(i) = As_hat(i-1)(1-0.5p)。p是丢包率。

低于2%的包丢失,As_hat(i)会增加:As_hat(i) = 1.05(As_hat(i-1))

基于丢包的带宽估计As_hat与基于延迟的带宽估计A_hat做对比。实际发送码率设置为他们的最小值。

你可能感兴趣的:(webrtc中的拥塞控制算法)