视频编码中常用熵编码介绍

原文:https://blog.csdn.net/SoaringLee_fighting/article/details/78303747

熵编码

数据压缩编码的概念:

编码是用一些简单的字符来表达一定的信息,例如,如果明天是晴天用1来表示,阴天就是0

压缩是消除数据间的相关性,一定的信息量尽量用较少的字符来表示

压缩编码的必要性

电子计算机的出现使信息话社会有了数字化的特点,电脑中的信息要以数字量表示出来,但我们可以简单的看一下数字话了的信息数量大小:

一片CD-ROM 650M

cif格式视频大小352*288 彩色,4:2:0格式存储的话

每帧大小352*288*1.5=228096B

播放速度30帧每秒228096*30=6842880B=6.526MB

650/6.526=99.6s

这个问题是多媒体技术发展中的一个非常棘手的瓶颈问题,单纯靠扩大存储器容量,增加通信干线的传输率的办法是不现实的

通过数据压缩手段把信息的数据量压下来,以压缩形式存储和传输,既紧缩节约了存储空间,又提高了通信干线的传输效率,同时也使计算机实时处理音频视频信息,保证播出高质量的视频,音频节目成为可能

可行性:

多媒体文本 声音 静态图像 视频图像等信源数据有极强的相关性,也就是说有大量的冗余信息,数据压缩的目的就是消除数据间的相关性,保留相互独立的信息分量

(以视频图像为例,空间相关性、时间相关性)

数据压缩编码的理论基础:

信息论,从信息论的角度来看,压缩就是去掉信息中的冗余,即保留不确定的东西,去掉确定的东西(即可以推知的东西),使用一种更接近信息本质的描述来代替原有的冗余的描述,这个本质的东西就是信息量(即不确定因素)

信息论中的信源编码理论解决的主要问题:

(1)数据压缩的理论极限

(2)数据压缩的基本途径。

根据信息论的原理,可以找到最佳数据压缩编码的方法,数据压缩的理论极限是信息熵。如果要求编码过程中不丢失信息量,即要求保存信息熵,这种信息保持编码叫熵编码,是根据消息出现概率的分布特性而进行的,属于统计编码中的一类,是无损数据压缩编码。

熵编码的基本原理;

熵编码立在随机过程的统计基础之上的是建

熵的概念:

在信息论中,有这样的信息量:

是信号 在X中出现的概率

信源X发出的信号 ,求n个随机时间的自信息统计平均(求数学期望),即

H(X)在信息论中称为信源X的熵,它的含义是信源X发出任意一个随机变量的平均信息量

数学上可以证明,等概率时间的熵最大

以n=8为例

熵的范围:

在编码中用熵值衡量是否为最佳编码

若以 表示编码器输出码字的平均码长,则

当 有冗余,不是最佳

当 不可能

当 最佳编码( 稍大于 )

熵值是平均码字 的下限

熵编码又叫熵保存编码 信息保持编码 无失真压缩编码,要求编码输出码字的平均码长,只能大于等于信源熵,若不满足这个条件,在信源编码的过程中就要丢失信息,所以信源熵是无失真信源编码,输出码字平均码长的下限

  常见的熵编码方法:香农编码(shannon)、哈夫曼编码(huffman)、算术编码(arithmetic coding)、哥伦布编码(Golomb Codes)等。

2、可变长编码(Variable Length Coding,VLC)

  可变长编码通过给出现概率大的符号赋予较短的码字,改变码字长度达到压缩信息冗余的目的,编码和解码过程完全可逆,又称为统计编码和无失真的压缩编码方法。最常用的可变长编码为Huffman、哥伦布编码、游程长度编码。

3、算术编码(Arithmetic coding)

   算术编码的本质是对输入流分配一个码字,而不是为每个符号分配一个码字。算术编码对整条信息(无论多长),其输出仅仅是一个小数,而且是介于0和1之间(半开区间[0,1))的二进制小数。如果算术编码对某条信息的输出为1010001111,那么表示的是小数0.1010001111,换算成十进制即为0.64。

    3.1 编码

   算术编码不是单独对一个码字进行编码,而是对整条信息进行编码。

编码举例:

     考虑某条信息中可能出现的字符仅有a,b,c三种,我们要编码的字符串为bccb。

(1) 假设三者出现概率一样,即p(a) = p(b) = p(c) = 1/3,将0~1区间按照概率的比例分配给三个字符a b c;

(2) 第一个b在(0.3333, 0.6667),此时三个字符的概率调整后为p(a) = 1/4,p(b) = 2/4,p(c) = 1/4,将(0.3333, 0.6667)区间分配给三个字符。

(3) 输入第二个字符c,c的区间为(0.5834,0.6667);

(4) 此时概率重新更新为p(a) = 1/5,p(b) = 2/5,p(c) = 2/5,用这个概率分布划分区间(0.5834,0.6667);

(5) 输入第三个字符c,c的区间为(0.6334,0.6667);

(6) 更新三个字符的概率分布为p(a) = 1/6,p(b)=2/6,p(c)=3/6,用这个概率分布划分区间(0.6334,0.6667);

(7) 最后一个字符b,得到b的区间为(0.6390,0.6501);因此只需要在这个区间中随便选择一个容易变成二进制的小数即可,比如0.64,将它变成二进制位0.1010001111,去掉没有太多意义的0和小数点,可以输出1010001111,编码结束。


3.2 解码

  解码过程与编码大致相同,描述如下:

(1) 解码之前假定三个字符的概率相同,并得到上面的第一幅分布图。解码时获取的二进制流为1010001111,先变成小数即为0.64;

(2) 0.64落在字符b区间,立即输出字符b,并得到三个字符新的概率分布;

(3) 采用新的概率分布划分b的区间,在新的划分中0.64落在字符c的区间,输出字符c,得到三个字符新的概率分布;

(4) 采用新的概率分布划分c的区间,在新的划分中0.64落在字符c的区间,输出字符c,得到三个字符新的概率分布;

(5) 采用新的概率分布划分c的区间,在新的划分中0.64落在字符b的区间,输出字符b;

(6) 完成消息长度的解码,不再继续划分。

    编码器和解码器都知道信息的长度,因此解码器的解码过程不会无限制的运行下去。实际上在解码器中需要添加一个专门的终止符,当解码器看到终止符时就停止解码。


3.3 多阶算术编码

   编码时考虑符号之间的相关性,把多个符号按照不同的上下文结构组合在一起,当作一个编码单元进行自适应算术编码,可以进一步提高编码效率。可以用“阶”表示上下文相关符号序列的长度,1阶上下文自适应统计的就是符号在某个特定的符号后面出现的概率,同样2阶、3阶上下文自适应统计的是符号在某两个、三个特定符号后出现的概率,使用多阶算术编码,使地同一符号可以在多个动态统计的上下文概率表中取得概率值较大的进行编码。

4、Huffman编码原理

参考:http://blog.csdn.net/abcjennifer/article/details/8020695

5、Shannon-Fano编码

     参考:http://blog.csdn.net/abcjennifer/article/details/8022445
             Wikipedia:https://en.wikipedia.org/wiki/Shannon%E2%80%93Fano_coding

6、指数哥伦布编码

  参见我的blog: http://blog.csdn.net/soaringlee_fighting/article/details/78178405

7、CABAC编码

  参见我的blog:http://blog.csdn.net/soaringlee_fighting/article/details/78217525

8、CAVLC编码

  参见我的blog:http://blog.csdn.net/soaringlee_fighting/article/details/7824087
8

你可能感兴趣的:(视频编解码)