无损数据压缩

数据压缩的起源要比计算机的起源早得多,数据压缩技术在计算机技术的萌芽时期就已经被提上了议事日程,军事科学家、数学家、电子学家一直在研究有关信息如何被高效存储和传递的问题。随着信息论的产生和发展,数据压缩也由热门话题演变成了真正的技术。

数据压缩可分成两种类型,一种叫做无损压缩,另一种叫做有损压缩。
无损压缩是指使用压缩后的数据进行重构(或者叫做还原,解压缩),重构后的数据与原来的数据完全相同;无损压缩用于要求重构的信号与原始信号完全一致的场合。磁盘文件的压缩就是一个很常见的例子。根据目前的技术水平,无损压缩算法一般可以把普通文件的数据压缩到原来的1/2~1/4。
有损压缩是指使用压缩后的数据进行重构,重构后的数据与原来的数据有所不同,但不会让人对原始资料
表达的信息造成误解。有损压缩适用于重构信号不一定非要和原始信号完全相同的场合。例如,图像和声音的压缩就可以采用有损压缩,因为其中包含的数据往往多于我们的视觉系统和听觉系统所能接收的信息,丢掉一些数据而不至于对声音或者图像所表达的意思产生误解,但可大大提高压缩比。

压缩技术大致可以按照以下的方法分类:
                                                                                       压缩技术
                                                                                               |
                                                                         /------------------------------/
                                                        通用无损数据压缩             多媒体数据压缩(大多为有损压缩)
                                                                       |                                                         |
                                                          /----------------/                   /------------------------------------/
                                                  基于统计          基于字典   音频压缩         图像压缩               视频压缩
                                                  模型的压         模型的压         |                         |                                 |
                                                  缩技术             缩技术         MP3等     /-------------------/            AVI
                                                        |                         |                               二值 灰度 彩色 矢量       MPEG2等
                                                    /------/         /-------------/                    图像 图像 图像 图像
                                            Huffman 算术 LZ77 LZ78 LZW                      |         |          |        / 
                                            编码     编码     /-------------/                传真机 FELICS GIF         PostScript
                                                |             |                     |                         标准     JPEG等 JPEG等 Windows WMF等
                                   UNIX下           接近无损       PKZIP、LHarc、ARJ、
                                   的COMPACT  压缩极限        UNIX下的COMPRESS
                                   程序等             的高级应用    程序等


通用无损数据压缩的历史
科学家在研究中发现,大多数信息的表达都存在着一定的冗余度,通过采用一定的模型和编码方法,可以
降低这种冗余度。贝尔实验室的 Claude Shannon 和 MIT 的 R.M.Fano 几乎同时提出了最早的对符号进行有
效编码从而实现数据压缩的 Shannon-Fano 编码方法。

D.A.Huffman于1952年第一次发表了他的论文“最小冗余代码的构造方法”(A Method for the Construction of Minimum Redundancy Codes)。从此,数据压缩开始在商业程序中实现并被应用在许多技术领域。UNIX 系统上一个压缩程序 COMPACT 就是 Huffman 0 阶自适应编码的具体实现。80 年代初,Huffman编码又在CP/M 和DOS 系统中实现,其代表程序叫 SQ。在数据压缩领域,Huffman 的这一论文事实上开创了数据压缩技术一个值得回忆的时代,60 年代、70 年代乃至 80 年代的早期,数据压缩领域几乎一直被 Huffman 编码及其分支所垄断。如果不是后面将要提到的那两个以色列人,也许我们今天还要在 Huffman编码的 0 和 1 的组合中流连忘返。

80年代,数学家们不满足于 Huffman 编码中的某些致命弱点,他们从新的角度入手,遵循 Huffman 编码的主导思想,设计出另一种更为精确,更能接近信息论中“熵”极限的编码方法——算术编码。凭借算术编码的精妙设计和卓越表现,人们终于可以向着数据压缩的极限前进了。可以证明,算术编码得到的压缩效果可以最大地减小信息的冗余度,用最少量的符号精确表达原始信息内容。当然,算术编码同时也给程序员和计算机带来了新的挑战:要实现和运行算术编码,需要更为艰苦的编程劳动和更加快速的计算机系统。也就是,在同样的计算机系统上,算术编码虽然可以得到最好的压缩效果,但却要消耗也许几十倍的计算时。这就是为什么算术编码不能在我们日常使用的压缩工具中实现的主要原因。

那么,能不能既在压缩效果上超越 Huffman,又不增加程序对系统资源和时间的需求呢?我们必须感谢下面将要介绍的两个以色列人。直到 1977 年,数据压缩的研究工作主要集中于熵、字符和单词频率以及统计模型等方面,研究者们一直在绞尽脑汁为使用Huffman编码的程序找出更快、更好的改进方法。1977 年以后,一切都改变了。

1977 年,以色列人 Jacob Ziv 和 Abraham Lempel 发表了论文“顺序数据压缩的一个通用算法”(A Universal Alogrithem for Sequential Data Compression)。1978 年,他们发表了该论文的续篇“通过可变比率编码的独立序列的压缩”(Compression of Individual Sequences via Variable-Rate Coding)。在这两篇论文中提出的压缩技术分别被称为 LZ77 和 LZ78 (不知为什么,作者名字的首字母被倒置了)。简单地说,这两种压缩方法的思路完全不同于从 Shannon 到 Huffman 到算术压缩的传统思路,人们将基于这一思路的编码方法称作“字典”式编码。字典式编码不但在压缩效果上大大超过了 Huffman,而且,对于好的实现,其压缩和解压缩的速度也异常惊人。

1984 年,Terry Welch 发表了名为“高性能数据压缩技术”(A Technique for High-Performance Data Compression)的论文,描述了他在 Sperry Research Center(现在是Unisys的一部分)的研究成果。他实现了LZ78 算法的一个变种 —— LZW。LZW 继承了 LZ77 和 LZ78 压缩效果好、速度快的优点,而且在算法描述上更容易被人们接受(有的研究者认为是由于 Welch 的论文比 Ziv 和 Lempel 的更容易理解),实现也比较简单。不久,UNIX 上出现了使用 LZW 算法的 Compress 程序,该程序性能优良,并有高水平的文档,很快成为了 UNIX 世界的压缩程序标准。紧随其后的是 MS-DOS 环境下的ARC程序( System Enhancement Associates, 1985 ),还有象 PKWare、PKARC 等仿制品。LZ78和LZW一时间统治了UNIX和DOS两大平台。

80 年代中期以后,人们对 LZ77 进行了改进,随之诞生了一批我们今天还在大量使用的压缩程序。Haruyasu Yoshizaki(Yoshi)的LHarc和Robert Jung的ARJ是其中两个著名的例子。LZ77得以和LZ78、LZW一起垄断当今的通用数据压缩领域。

目前,基于字典方式的压缩已经有了一个被广泛认可的标准,从古老的PKZip到现在的WinZip,特别是随
着Internet上文件传输的流行,ZIP 格式成为了事实上的标准,没有哪一种通用的文件压缩、归档系统不支
持 ZIP 格式。本章主要介绍目前用得最多和技术最成熟的无损压缩编码技术,包括包含霍夫曼(Huffman)编码、算术编码、RLE编码和词典编码 。注意有一部分压缩算法受到美国专利法的保护(例如 LZW 算法的某些部分和高阶算术压缩算法的某些细节等)。

4.1 仙农-范诺与霍夫曼编码
4.1.1 仙农-范诺(Shannon-Fano)编码
仙农-范诺编码算法需要用到下面两个基本概念:
1. Entropy(熵)
(1) 熵是信息量的度量方法,表示一条信息中真正需要编码的信息量。事件发生的可能性越小(数学上就
是概率越小),表示某一事件出现的消息越多。
(2) 某个事件的信息量用Ii=-log2 pi表示(有时称为surprise), 其中pi为第i个事件的概率,0 pi 1对数以2为底时,熵的单位是"bits"。
2. 信源S的熵
按照仙农(Shannon)的理论,信源S的熵定义为
其中pi是符号si在S中出现的概率;log2(1/ pi)表示包含在si中的信息量,也就是编码si所需要的位数。
例如,一幅用256级灰度表示的图像,如果每一个象素点灰度的概率均为pi=1/256,编码每一个象素点就需
要8位。(最大熵分布)
最小熵分布: 除了一个符号外其余符号的概率全为0,H=0bits.(定义0log20=0)

例如,对下面这条只出现了 a b c 三个字符的字符串:aabbaccbaa,字符串长度为 10,字符 a b c 分
别出现了 5 3 2 次,则 a b c 在信息中出现的概率分别为 0.5 0.3 0.2,他们的熵分别为:
Ea = -log2(0.5) = 1
Eb = -log2(0.3) = 1.737
Ec = -log2(0.2) = 2.322
整条信息的熵也即表达整个字符串需要的位数为:
Ea * 5 + Eb * 3 + Ec * 2 = 14.855 位
如果用计算机中常用的 ASCII 编码,表示上面的字符串需要整整80位!信息为什么能被压缩而不丢失原
有的信息内容呢?简单地讲,用较少的位数表示较频繁出现的符号,这就是数据压缩的基本准则。(怎样用 0
1 这样的二进制数码表示零点几个二进制位呢?确实很困难,但不是没有办法。一旦找到了准确表示零点几个
二进制位的方法,就接近无损压缩的极限了。)
[例4.1] 有一幅40个象素组成的灰度图像,灰度共有5级,分别用符号A、B、C、D和E表示,40个象素中出
现灰度A的象素数有15个,出现灰度B的象素数有7个,出现灰度C的象素数有7个等等,如表4-01所示。
如果用3个位表示这5个等级的灰度值,也就是每个象素用3位表示(等长编码),编码这幅图像总共需要120
位。
表4-01 符号在图像中出现的数目
按照仙农理论,这幅图像的熵为 H(S)=(15/40)×log2(40/15) + (7/40)×log2(40/7) +… + (5/40)
×log2(40/5) = 2.196
这就是说每个符号用2.196位表示,40个象素需用87.84位。
最早阐述和实现这种编码的是Shannon(1948年)和Fano(1949年),因此被称为仙农-范诺(Shannon-Fano)算
法。这种方法采用从上到下的方法进行编码。
首先按照符号出现的频度或概率排序,例如,A,B,C,D和E,如表4-02所示。
然后使用递归方法分成两个部分,每一部分具有近似相同的次数,如图4-01所示。
按照这种方法进行编码得到的总位数为91,实际的压缩比约为1.3 : 1。
表4-02 Shannon-Fano算法举例表
符 号 A B C D E
出现的次数 15 7 7 6 5
符号 出现的次数(pi) log2(1/pi) 分配的代码 需要的位数
A 15 (0.375) 1.4150 00 30
B 7 (0.175) 2.5145 01 14
C 7 (0.175) 2.5145 10 14
D 6 (0.150) 2.7369 110 18
E 5 (0.125) 3.0000 111 15
第 4 页
4
图4-01 仙农-范诺算法编码举例
4.1.2 霍夫曼(Huffman)编码
霍夫曼在1952年提出了另一种编码方法,即从下到上的编码方法。现以一个具体的例子说明它的编码步
骤:
(1) 初始化,根据符号概率的大小按由大到小顺序对符号进行排序,如表4-03和图4-02所示。
(2) 把概率最小的两个符号组成一个节点,如图4-02中的D和E组成节点P1。
(3) 重复步骤2,得到节点P2、P3和P4,形成一棵“树”,其中的P4称为根节点。
(4) 从根节点P4开始到相应于每个符号的“树叶”,从上到下标上“0”(上枝)或者“1”(下枝),至于哪
个为“1”哪个为“0”则无关紧要,最后的结果仅仅是分配的代码不同,而代码的平均长度是相同的。
(5) 从根节点P4开始顺着树枝到每个叶子分别写出每个符号的代码,如表4-03所示。
(6) 按照仙农理论,这幅图像的熵为
H(S)=(15/39)×log2(39/15) + (7/39)×log2(39/7) + … + (5/39)×log2(39/5) = 2.1859
压缩比1.37:1。
表4-03 霍夫曼编码举例
图4-02 霍夫曼编码方法
霍夫曼码的码长虽然是可变的,但却不需要另外附加同步代码(前缀代码)。例如,码串中的第1位为0,
那末肯定是符号A,因为表示其他符号的代码没有一个是以0开始的,因此下一位就表示下一个符号代码的第1
符号 出现的次数(pi) log2(1/pi) 分配的代码 需要的位数
A 15(0.3846) 1.38 0 15
B 7(0.1795) 2.48 100 21
C 6(0.1538) 2.70 101 18
D 6(0.1538) 2.70 110 18
E 5(0.1282) 2.96 111 15
第 5 页
4
位。同样,如果出现“110”,那么它就代表符号D。如果事先编写出一本解释各种代码意义的“词典”,即码
簿,那么就可以根据码簿一个码一个码地依次进行译码。
与仙农-范诺编码相同,这两种方法都自含同步码,在编码之后的码串中不需要另外添加标记符号(即在
译码时分割符号的特殊代码)。
采用霍夫曼编码时有两个问题值得注意:
①霍夫曼码没有错误保护功能,在译码时,如果码串中没有错误,那么就能一个接一个地正确译出代码。
但如果码串中有错误,哪怕仅仅是1位出现错误,不但这个码本身译错,更糟糕的是一错一大串,全乱了套,
这种现象称为错误传播(error propagation)。计算机对这种错误也无能为力,说不出错在哪里,更谈不上去
纠正它。
②霍夫曼码是可变长度码,因此很难随意查找或调用压缩文件中间的内容,然后再译码,这就需要在存储
代码之前加以考虑。
尽管如此,霍夫曼码还是得到广泛应用。 霍夫曼编码方法的编码效率比仙农-范诺编码效率高一些。
4.2 算术编码
算术编码在图像数据压缩标准(如JPEG,JBIG)中扮演了重要的角色。在算术编码中,消息用0到1之间的实
数进行编码,算术编码用到两个基本的参数:符号的概率和编码间隔。信源符号的概率决定压缩编码的效率,
也决定编码过程中信源符号的间隔,而这些间隔包含在0到1之间。编码过程中的间隔决定了符号压缩后的输
出。算术编码器的编码过程可用下面的例子加以解释。
[例4.2] 假设信源符号为{00, 01, 10, 11},这些符号的概率分别为{ 0.1, 0.4, 0.2, 0.3 },根据这些
概率可把间隔[0, 1)分成4个子间隔:[0, 0.1), [0.1, 0.5), [0.5, 0.7), [0.7, 1),其中[x,y)表示半开放
间隔,即包含x不包含y。上面的信息可综合在表4-04中。
表4-04 信源符号,概率和初始编码间隔
如果二进制消息序列的输入为:10 00 11 00 10 11 01。编码时首先输入的符号是10,找到它的编码范围
是[0.5, 0.7)。消息中第二个符号00的编码范围是[0, 0.1),因此就取[0.5, 0.7)的第一个十分之一作为新间
隔[0.5, 0.52)。依此类推,编码第3个符号11时取新间隔为[0.514, 0.52),编码第4个符号00时,取新间隔为
[0.514, 0.5146),… 。消息的编码输出可以是最后一个间隔中的任意数。整个编码过程如图4-03所示。
符号 00 01 10 11
概率 0.1 0.4 0.2 0.3
初始编码间隔 [0, 0.1) [0.1, 0.5) [0.5, 0.7) [0.7, 1)
第 6 页
4
图4-03 算术编码过程举例
这个例子的编码和译码的全过程分别表示在表4-05和表4-06中。
根据上面所举的例子,可把计算过程总结如下。
考虑一个有M个符号i=(1,2,…,M)的字符表集,假设概率p( i)=pi,而
。输入符号用xn表示,第n个子间隔的范围用
表示。其中l0=0,d0=1和p0=0,ln表示间隔左边界的值,rn 表示间
隔右边界的值,dn=rn-ln表示间隔长度。编码步骤如下:
步骤1:首先在1和0之间给每个符号分配一个初始子间隔,子间隔的长度等于它的概率,初始子间隔的范
围用I1=[l1,r1)=[ , )表示。令d1=r1-l1,L=l1和R=r1。
步骤2:L和R的二进制表达式分别表示为:

其中ui 和vi 等于“1”或者“0”。
①如果u1
≠v1 ,不发送任何数据,转到步骤3;
②如果u1=v1,就发送二进制符号u1。
比较u2
和v2:如果u2≠v2 ,不发送任何数据,转到步骤3;
如果u2=v2,就发送二进制符号u2。

这种比较一直进行到两个符号不相同为止,然后进入步骤3。
步骤3:n加1,读下一个符号。假设第n个输入符号为xn= i,按照以前的步骤把这个间隔分成如下所示的
子间隔:
第 7 页
4
令L=ln,R=rn 和 dn=rn-ln,然后转到步骤2。
表4-05 编码过程
表4-06 译码过程
[例4.3] 假设有4个符号的信源,它们的概率如表4-07所示:
表4-07 符号概率
输入序列为xn: 2, 1, 3,…。它的编码过程如图4-04所示,现说明如下。
输入第1个符号是x1= 2,可知i=2,定义初始间隔=[0.5, 0.75),由此可知
d1=0.25,左右边界的二进制数分别表示为:L=0.5=0.1(B),R=0.7=0.11… (B) 。按照步骤2,u1=v1,发
送1。因u2≠v2,因此转到步骤3。
输入第2个字符x2= 1,i=1,它的子间隔=[0.5, 0.625),由此可
得d2=0.125。左右边界的二进制数分别表示为:L=0.5=0.100 … (B),R=0.101… (B)。按照步骤2,
u2=v2=0,发送0,而u3和v3不相同,因此在发送0之后就转到步骤3。
输入第3个字符,x3= 3,i=3,它的子间隔=[0.59375, 0.609375)
,由此可得d3=0.015625。左右边界的二进制数分别表示为:L=0.59375=0.10011 (B),R=
步骤 输入符号 编码间隔 编码判决
1 10 [0.5, 0.7) 符号的间隔范围[0.5, 0.7)
2 00 [0.5, 0.52) [0.5, 0.7)间隔的第一个1/10
3 11 [0.514, 0.52) [0.5, 0.52)间隔的最后三个1/10
4 00 [0.514, 0.5146) [0.514, 0.52)间隔的第一个1/10
5 10 [0.5143, 0.51442) [0.514, 0.5146)间隔的第五个1/10开始,二个1/10
6 11 [0.514384, 0.51442 [0.5143, 0.51442)间隔的最后3个1/10
7 01 [0.5143836, 0.514402) [0.514384, 0.51442)间隔的4个1/10,从第1个1/10开始
8 从[0.5143876, 0.514402)中选择一个数作为输出:0.5143876
步骤 间隔 译码符号译码判决
1 [0.5, 0.7) 10 0.51439在间隔 [0.5, 0.7)
2 [0.5, 0.52) 00 0.51439在间隔 [0.5, 0.7)的第1个1/10
3 [0.514, 0.52) 11 0.51439在间隔[0.5, 0.52)的第7个1/10
4 [0.514, 0.5146) 00 0.51439在间隔[0.514, 0.52)的第1个1/10
5 [0.5143, 0.51442) 10 0.51439在间隔[0.514, 0.5146)的第5个1/10
6 [0.514384, 0.51442) 11 0.51439在间隔[0.5143, 0.51442)的第7个1/10
7 [0.51439, 0.5143948) 01 0.51439在间隔[0.51439, 0.5143948)的第1个1/10
8 译码的消息:10 00 11 00 10 11 01
信源符号ai 1 2 3 4
概率pi p1=0.5 p2=0.25 p3=0.125 p4=0.125
初始编码间隔 [0, 0.5) [0.5, 0.75) [0.75, 0.875) [0.875, 1)
第 8 页
4
0.609375=0.100111 (B)。按照步骤2,u3=v3=0,u4=v4=1,u5=v5=1,但u6和v6不相同,因此在发送011之后转到
步骤3。

发送的符号是:10011…。被编码的最后的符号是结束符号。
图4-04 算术编码概念
就这个例子而言,算术编码器接受的第1位是“1”,它的间隔范围就限制在[0.5, 1),但在这个范围里有
3种可能的码符2, 3和4,因此第1位没有包含足够的译码信息。在接受第2位之后就变成“10”,它落在
[0.5, 0.75)的间隔里,由于这两位表示的符号都指向2开始的间隔,因此就可断定第一个符号是2。在接受
每位信息之后的译码情况如下表4-08所示。
表4-08 译码过程表
在上面的例子中,我们假定编码器和译码器都知道消息的长度,因此译码器的译码过程不会无限制地运行
下去。实际上在译码器中需要添加一个专门的终止符,当译码器看到终止符时就停止译码。
在算术编码中需要注意的几个问题:
(1) 由于实际的计算机的精度不可能无限长,运算中出现溢出是一个明显的问题,但多数机器都有16位、
32位或者64位的精度,因此这个问题可使用比例缩放方法解决。
(2) 算术编码器对整个消息只产生一个码字,这个码字是在间隔[0, 1)中的一个实数,因此译码器在接受
到表示这个实数的所有位之前不能进行译码。
(3) 算术编码也是一种对错误很敏感的编码方法,如果有一位发生错误就会导致整个消息译错。
算术编码可以是静态的或者自适应的。在静态算术编码中,信源符号的概率是固定的。在自适应算术编码
中,信源符号的概率根据编码时符号出现的频繁程度动态地进行修改,在编码期间估算信源符号概率的过程叫
做建模。需要开发动态算术编码的原因是因为事先知道精确的信源概率是很难的,而且是不切实际的。当压缩
消息时,我们不能期待一个算术编码器获得最大的效率,所能做的最有效的方法是在编码过程中估算概率。因
此动态建模就成为确定编码器压缩效率的关键。
接受的数字 间隔 译码输出
1 [0.5, 1) -
0 [0.5, 0.75) 2
0 [0.5, 0.609375) 1
1 [0.5625, 0.609375) -
1 [0.59375, 0.609375) 3
… … …
第 9 页
4
4.3 RLE编码
在一幅图像中经常包含有许多颜色相同的图块。在这些图块中,许多行上都具有相同的颜色,或者在一行
上有许多连续的像素都具有相同的颜色值。在这种情况下就不需要存储每一个像素的颜色值,而仅仅存储一个
像素的颜色值,以及具有相同颜色的像素数目就可以,或者存储一个像素的颜色值,以及具有相同颜色值的行
数。这种压缩编码称为行程编码(run length encoding,RLE),具有相同颜色并且是连续的像素数目称为行程
长度。
假定有一幅灰度图像,第n行的像素值如图4-05所示:
图4-05 RLE编码的概念
用RLE编码方法得到的代码为:80315084180。代码中用黑体表示的数字是行程长度,黑体字后面的数字代
表像素的颜色值。例如黑体字50代表有连续50个像素具有相同的颜色值,它的颜色值是8。
对比RLE编码前后的代码数可以发现,在编码前要用73个代码表示这一行的数据,而编码后只要用11个代
码表示代表原来的73个代码,压缩前后的数据量之比约为7:1,即压缩比为7:1。这说明RLE确实是一种压缩技
术,而且这种编码技术相当直观,也非常经济。
译码时按照与编码时采用的相同规则进行,还原后得到的数据与压缩前的数据完全相同。
RLE所能获得的压缩比有多大,这主要是取决于图像本身的特点。如果图像中具有相同颜色的图像块越
大,图像块数目越少,获得的压缩比就越高。反之,压缩比就越小。
RLE压缩编码尤其适用于计算机生成的图像,对减少图像文件的存储空间非常有效。然而,RLE对颜色丰富
的自然图像就显得力不从心,在同一行上具有相同颜色的连续像素往往很少,而连续几行都具有相同颜色值的
连续行数就更少。如果仍然使用RLE编码方法,不仅不能压缩图像数据,反而可能使原来的图像数据变得更
大。请注意,这并不是说RLE编码方法不适用于自然图像的压缩,相反,在自然图像的压缩中还真少不了RLE,
只不过是不能单纯使用RLE一种编码方法,需要和其他的压缩编码技术联合应用。
4.4 词典编码
有许多场合,开始时不知道要编码数据的统计特性,也不一定允许你事先知道它们的统计特性。因此,人
们提出了许许多多的数据压缩方法,尽可能获得最大的压缩比。这些技术统称为通用编码技术。词典编码
(Dictionary Encoding)技术就属于这一类。
4.4.1 词典编码的思想
词典编码(dictionary encoding)的根据是数据本身包含有重复代码这个特性。例如文本文件和光栅图像
就具有这种特性。词典编码法的种类很多,归纳起来大致有两类。
第一类词典算法是企图查找正在压缩的字符序列是否在以前输入的数据中出现过,然后输出仅仅是指向早
期出现过的字符串的“指针”。这种编码概念如图4-06所示。
第 10 页
4
图4-06 第一类词典法编码概念
这里所指的“词典”是指用以前处理过的数据来表示编码过程中遇到的重复部分。这类编码算法都是以
Abraham Lempel和Jakob Ziv在1977年开发和发表的称为LZ77算法为基础的,例如1982年由Storer和Szymanski
改进的称为LZSS算法 。
第二类词典算法是企图从输入的数据中创建一个“短语词典(dictionary of the phrases)”,这种短语
不一定是具有具体含义的短语,可以是任意字符的组合。编码过程中遇到已经在词典中出现的“短语”时,编
码器就输出这个词典中的短语的“索引号”,而不是短语本身。这个概念如图4-07所示。
图4-07 第二类词典法编码概念
J.Ziv和A.Lempel在1978年首次发表了介绍这种编码方法的文章。在他们的研究基础上,Terry A.Weltch
在1984年发表了改进这种编码算法的文章,因此把这种编码方法称为LZW(Lempel-Ziv Walch)压缩编码,在高
速硬盘控制器上 首先应用了这种算法。
4.4.2 LZ77算法
为了更好地说明LZ77算法的原理,首先介绍算法中用到的几个术语:
(1) 输入数据流(input stream):要被压缩的字符序列。
(2) 字符(character):输入数据流中的基本单元。
(3) 编码位置(coding position):输入数据流中当前要编码的字符位置,指前向缓冲存储器中的开始字
符。
(4) 前向缓冲存储器(Lookahead buffer):存放从编码位置到输入数据流结束的字符序列的存储器。
(5) 窗口(window):指包含W个字符的窗口,字符是从编码位置开始向后数,也就是最后处理的W个字
符 。(滑动窗口)
(6) 指针(pointer):指向窗口中的匹配串的开始位置且含长度的指针。
LZ77编码算法的核心是查找从前向缓冲存储器开始的与窗口中最长的匹配串。编码算法的具体执行步骤如
下:
第 11 页
4
(1) 把编码位置设置到输入数据流的开始位置。
(2) 查找窗口中最长的匹配串。
(3) 以“(Pointer, Length) Character”三元组的格式输出,其中Pointer是指向窗口中匹配串的指针,
Length表示匹配字符的长度,Characters是前向缓冲存储器中的不匹配的第1个字符。没有匹配的字符串时,
输出“(0, 0) Character”
(4) 如果前向缓冲存储器不是空的,则把编码位置和窗口向前移(Length+1)个字符,然后返回到步骤2。
[例4.4] 待编码的数据流如表4-09所示,编码过程如表4-10所示。现作如下说明:
(1) “步骤”栏表示编码步骤。
(2) “位置”栏表示编码位置,输入数据流中的第1个字符为编码位置1。
(3) “匹配串”栏表示窗口中找到的最长的匹配串。
(4) “字符”栏表示匹配之后在前向缓冲存储器中的第1个字符。
(5) “输出”栏以“(Back_chars, Chars_length) Explicit_character”格式输出。其中,
(Back_chars, Chars_length)是指向匹配串的指针,告诉译码器“在这个窗口中向后退Back_chars个字符然后
拷贝Chars_length个字符到输出”,Explicit_character是真实字符。例如,表4-10中的输出“(5,2) C”告
诉译码器回退5个字符,然后拷贝2个字符“AB”
表4-09待编码的数据流
表4-10 编码过程
4.4.3 LZSS算法
LZ77通过输出真实字符解决了在窗口中出现没有匹配串的问题,但这个解决方案包含有冗余信息。冗余信
息表现在两个方面,一是空指针,二是编码器输出的字符可能包含在下一个匹配串中的字符。
LZSS算法以比较有效的方法解决这个问题,思想是如果匹配串的长度比指针本身的长度 (最小匹配串长
度)长就输出指针,否则就输出真实字符。由于输出的压缩数据流中包含有指针和字符本身,为了区分它们就
需要有额外的标志位,即ID位。
LZSS编码算法的具体执行步骤如下:
(1) 把编码位置置于输入数据流的开始位置。
(2) 在前向缓冲存储器中查找与窗口中最长的匹配串
① Pointer :=匹配串指针。
② Length :=匹配串长度。
(3) 判断匹配串长度Length是否大于等于最小匹配串长度(Length≥MIN_LENGTH),
如果“是”:输出指针,然后把编码位置向前移动Length个字符。
位置 1 2 3 4 5 6 7 8 9
字符 A A B C B B A B C
步骤 位置 匹配串 字符 输出
1 1 -- A (0,0) A
2 2 A B (1,1) B
3 4 -- C (0,0) C
4 5 B B (2,1) B
5 7 A B C (5,2) C
第 12 页
4
如果“否”:输出前向缓冲存储器中的第1个字符,然后把编码位置向前移动一个字符。
(4) 如果前向缓冲存储器不是空的,就返回到步骤2。
[例4.5] 编码字符串如表4-11所示,编码过程如表4-12所示。现说明如下:
(1) “步骤”栏表示编码步骤。
(2) “位置”栏表示编码位置,输入数据流中的第1个字符为编码位置1。
(3) “匹配”栏表示窗口中找到的最长的匹配串。
(4) “字符”栏表示匹配之后在前向缓冲存储器中的第1个字符。
(5) “输出”栏的输出为:
① 如果匹配串本身的长度Length≥MIN_LENGTH,输出指向匹配串的指针,格式为(Back_chars,
Chars_length)。该指针告诉译码器“在这个窗口中向后退Back_chars个字符然后拷贝Chars_length个字符到
输出”。
② 如果匹配串本身的长度Length≤MIN_LENGTH,则输出真实的匹配串。
表4-11 输入数据流
表4-12 编码过程(MIN_LENGTH = 2)
在相同的计算环境下,LZSS算法比LZ77可获得比较高的压缩比,而译码同样简单。这也就是为什么这种算
法成为开发新算法的基础,许多后来开发的文档压缩程序都使用了LZSS的思想。例如,PKZip, ARJ, LHArc和
ZOO等等,其差别仅仅是指针的长短和窗口的大小等有所不同。
LZSS同样可以和熵编码联合使用,例如ARJ就与霍夫曼编码联用,而PKZip则与Shannon-Fano联用,它的后
续版本也采用霍夫曼编码。
4.4.4 LZ78算法
在介绍LZ78算法之前,首先说明在算法中用到的几个术语和符号:
(1) 字符流(Charstream):要被编码的数据序列。
(2) 字符(Character):字符流中的基本数据单元。
(3) 前缀(Prefix): 在一个字符之前的字符序列。
(4) 缀-符串(String):前缀+字符。
(5) 码字(Code word):码字流中的基本数据单元,代表词典中的一串字符。
(6) 码字流(Codestream): 码字和字符组成的序列,是编码器的输出。
(7) 词典(Dictionary): 缀-符串表。按照词典中的索引号对每条缀-符串(String)指定一个码字(Code
位置 1 2 3 4 5 6 7 8 9 10 11
字符 A A B B C B B A A B C
步骤 位置 匹配串 输出
1 1 -- A
2 2 A A
3 3 -- B
4 4 B B
5 5 -- C
6 6 B B (3,2)
7 8 A A B (7,3)
8 11 C C
第 13 页
4
word)。
(8) 当前前缀(Current prefix):在编码算法中使用,指当前正在处理的前缀,用符号P表示。
(9) 当前字符(Current character):在编码算法中使用,指当前前缀之后的字符,用符号C表示。
(10) 当前码字(Current code word): 在译码算法中使用,指当前处理的码字,用W表示当前码字,
String.W表示当前码字的缀-符串。
1. 编码算法
LZ78的编码思想是不断地从字符流中提取新的缀-符串(String),通俗地理解为新“词条”,然后用“代
号”也就是码字(Code word)表示这个“词条”。这样一来,对字符流的编码就变成了用码字(Code word)去替
换字符流(Charstream),生成码字流(Codestream),从而达到压缩数据的目的。
在编码开始时词典是空的,不包含任何缀-符串(string)。在这种情况下编码器就输出一个表示空字符串
的特殊码字(例如“0”)和字符流中(Charstream)的第一个字符C,并把这个字符C添加到词典中作为一个由一
个字符组成的缀-符串(string)。在编码过程中,如果出现类似的情况,也照此办理。
在词典中已经包含某些缀-符串(String)之后,如果“当前前缀P +当前字符C”已经在词典中,就用字符C
来扩展这个前缀,这样的扩展操作一直重复到获得一个在词典中没有的缀-符串(String)为止。此时就输出表
示当前前缀P的码字(Code word)和字符C,并把P+C添加到词典中,然后开始处理字符流(Charstream)中的下一
个前缀。
LZ78编码器的输出是码字-字符(W,C)对,每次输出一对到码字流中,并用字符C扩展与码字W相对应的缀-
符串(String),生成新的缀-符串(String),然后添加到词典中。
LZ78编码的具体算法如下:
步骤1: 在开始时,词典和当前前缀P都是空的。
步骤2: 当前字符C := 字符流中的下一个字符。
步骤3: 判断P+C是否在词典中:
(1) 如果“是”:用C扩展P,让P := P+C ;
(2) 如果“否”:
① 输出与当前前缀P相对应的码字和当前字符C;
② 把字符串P+C 添加到词典中。
③ 令P := 空值。
(3) 判断字符流中是否还有字符需要编码
① 如果“是”:返回到步骤2。
② 如果“否”:若当前前缀P不是空的,输出相应于当前前缀P的码字,然后结束编码。
2. 译码算法
在译码开始时译码词典是空的,它将在译码过程中从码字流中重构。每当从码字流中读入一对码字-字符
(W,C)对时,码字就参考已经在词典中的缀-符串,然后把当前码字的缀-符串string.W 和字符C输出到字符流
(Charstream),而把当前缀-符串(string.W+C)添加到词典中。在译码结束之后,重构的词典与编码时生成的
词典完全相同。
LZ78译码的具体算法如下:
步骤1: 在开始时词典是空的。
步骤2: 当前码字W := 码字流中的下一个码字。
步骤3: 当前字符C := 紧随码字之后的字符。
步骤4: 把当前码字的缀-符串(string.W)输出到字符流(Charstream),然后输出字符C。
步骤5: 把string.W+C添加到词典中。
步骤6: 判断码字流中是否还有码字要译
第 14 页
4
(1) 如果“是”,就返回到步骤2。
(2) 如果“否”,则结束。
[例4.6] 编码字符串如表4-13所示,编码过程如表4-14所示。现说明如下:
(1) “步骤”栏表示编码步骤。
(2) “位置”栏表示在输入数据中的当前位置。
(3) “词典”栏表示添加到词典中的缀-符串,缀-符串的索引等于“步骤”序号。
(4) “输出”栏以(当前码字W, 当前字符C)简化为(W, C)的形式输出。
表4-13 编码字符串
表4-14 编码过程
与LZ77相比,LZ78的最大优点是在每个编码步骤中减少了缀-符串(String)比较的数目,而压缩率与LZ77
类似。
4.4.5 LZW算法
在LZW算法中使用的术语与LZ78使用的相同,仅增加了一个术语—前缀根(Root),它是由单个字符组成的
缀-符串(String)。在编码原理上,LZW与LZ78相比有如下差别:
① LZW只输出代表词典中的缀-符串(String)的码字(code word)。这就意味在开始时词典不能是空的,它
必须包含可能在字符流出现中的所有单个字符,即前缀根(Root)。
② 由于所有可能出现的单个字符都事先包含在词典中,每次编码开始时都使用一个字符前缀(onecharacter
prefix),因此在词典中增加的第1个缀-符串有两个字符。
现将LZW编码算法和译码算法介绍如下。
1. 编码算法
LZW编码是围绕称为词典的转换表来完成的。这张转换表存放称为前缀(Prefix)的字符序列,并为每个表
项分配一个码字(Code word),或者叫做序号,如表4-15所示。这张转换表实际上是把8位ASCII字符集进行扩
充,增加的符号用来表示在文本或图像中出现的可变长度ASCII字符串。扩充后的代码可用9位、10位、11位、
12位甚至更多的位来表示。Welch的论文中用了12位,12位可以有4096个不同的12位代码,这就是说,转换表
有4096个表项,其中256个表项用来存放已定义的字符,剩下3840个表项用来存放前缀(Prefix)。
表4-15 词典
位置 1 2 3 4 5 6 7 8 9
字符 A B B C B C A B A
步骤 位置 词典 输出
1 1 A (0,A)
2 2 B (0,B)
3 3 B C (2,C)
4 5 B C A (3,A)
5 8 B A (2,A)
码字(Code word) 前缀(Prefix)
1
第 15 页
4
LZW编码器(软件编码器或硬件编码器)就是通过管理这个词典完成输入与输出之间的转换。LZW编码器的输
入是字符流(Charstream),字符流可以是用8位ASCII字符组成的字符串,而输出是用n位(例如12位)表示的码
字流(Codestream),码字代表单个字符或多个字符组成的字符串。
LZW编码器使用了一种很实用的分析(parsing)算法,称为贪婪分析算法(greedy parsing algorithm)。在
贪婪分析算法中,每一次分析都要串行地检查来自字符流(Charstream)的字符串,从中分解出已经识别的最长
的字符串,也就是已经在词典中出现的最长的前缀(Prefix)。用已知的前缀(Prefix)加上下一个输入字符C也
就是当前字符(Current character)作为该前缀的扩展字符,形成新的扩展字符串——缀-符串(String):
Prefix+C。这个新的缀-符串(String)是否要加到词典中,还要看词典中是否存有和它相同的缀-符串String。
如果有,那么这个缀-符串(String)就变成前缀(Prefix),继续输入新的字符,否则就把这个缀-符串(String)
写到词典中生成一个新的前缀(Prefix),并分配给一个代码。
LZW编码算法的具体执行步骤如下:
步骤1: 开始时的词典包含所有可能的根(Root),而当前前缀P是空的;
步骤2: 当前字符(C) :=字符流中的下一个字符;
步骤3: 判断缀-符串P+C是否在词典中
(1) 如果“是”:P := P+C // (用C扩展P) ;
(2) 如果“否”
① 把代表当前前缀P的码字输出到码字流;
② 把缀-符串P+C添加到词典;
③ 令P := C //(现在的P仅包含一个字符C);
步骤4: 判断码字流中是否还有码字要译
(1) 如果“是”,就返回到步骤2;
(2) 如果“否”
① 把代表当前前缀P的码字输出到码字流;
② 结束。
LZW编码算法可用伪码表示。开始时假设编码词典包含若干个已经定义的单个码字。例如,256个字符的码
字,用伪码可以表示成:
… …
193 A
194 B
… …
255
… …
1305 abcdefxyF01234
… …
Dictionary[j] ← all n single-character, j=1, 2, …,n
j ← n+1
Prefix ← read first Character in Charstream
while((C ← next Character)!=NULL)
第 16 页
4
2. 译码算法
LZW译码算法中还用到另外两个术语:
① 当前码字(Current code word):指当前正在处理的码字,用cW表示,用string.cW表示当前缀-符串;
② 先前码字(Previous code word):指先于当前码字的码字,用pW表示,用string.pW表示先前缀-符
串。
LZW译码算法开始时,译码词典与编码词典相同,它包含所有可能的前缀根(roots)。LZW算法在译码过程
中会记住先前码字(pW),从码字流中读当前码字(cW)之后输出当前缀-符串string.cW,然后把用string.cW的
第一个字符扩展的先前缀-符串string.pW添加到词典中。
LZW译码算法的具体执行步骤如下:
步骤1: 在开始译码时词典包含所有可能的前缀根(Root)。
步骤2: cW := 码字流中的第一个码字。
步骤3: 输出当前缀-符串string.cW到码字流。
步骤4: 先前码字pW := 当前码字cW。
步骤5: 当前码字cW := 码字流中的下一个码字。
步骤6: 判断当前缀-符串string.cW是否在词典中
(1) 如果“是”,则:
① 把当前缀-符串string.cW输出到字符流。
② 把先前缀-符串string.pW + 当前前缀-符串string.cW的第一个字符C添加到词典。
(2) 如果“否”,则:
① 输出先前缀-符串string.pW + 先前缀-符串string.pW的第一个字符到字符流,
② 把它添加到词典中。
步骤7: 判断码字流中是否还有码字要译
(1) 如果“是”,就返回到步骤4。
(2) 如果“否”, 结束。
LZW译码算法可用伪码表示如下:
Codestream ← cW for Prefix
Dictionary[j] ← all n single-character, j=1, 2, …,n
j ← n+1
cW ← first code from Codestream
Charstream ← Dictionary[cW]
pW ← cW
While((cW ← next Code word)!=NULL)
第 17 页
4
[例4.7] 编码字符串如表4-16所示,编码过程如表4-17所示。现说明如下:
(1) “步骤”栏表示编码步骤;
(2) “位置”栏表示在输入数据中的当前位置;
(3) “词典”栏表示添加到词典中的缀-符串,它的索引在括号中;
(4) “输出”栏表示码字输出。
表4-16 被编码的字符串
表4-17 LZW的编码过程
表4-18解释了译码过程。每个译码步骤译码器读一个码字,输出相应的缀-符串,并把它添加到词典中。
例如,在步骤4中,先前码字(2)存储在先前码字(pW)中,当前码字(cW)是(4),当前缀-符串string.cW是输出
(“A B”),先前缀-符串string.pW ("B")是用当前缀-符串string.cW ("A")的第一个字符,其结果("B A")
添加到词典中,它的索引号是(6)
表4-18 LZW的译码过程
LZW算法得到普遍采用,它的速度比使用LZ77算法的速度快,因为它不需要执行那么多的缀-符串比较操
位置 1 2 3 4 5 6 7 8 9
字符 A B B A B A B A C
步骤 位置 词典 输出
(1) A
(2) B
(3) C
1 1 (4) A B (1)
2 2 (5) B B (2)
3 3 (6) B A (2)
4 4 (7) A B A (4)
5 6 (8) A B A C (7)
6 -- -- -- (3)
步骤 代码 词典 输出
(1) A
(2) B
(3) C
1 (1) -- -- A
2 (2) (4) A B B
3 (2) (5) B B B
4 (4) (6) B A A B
5 (7) (7) A B A A B A
6 (3) (8) A B A C C
第 18 页
4
作。对LZW算法进一步的改进是增加可变的码字长度,以及在词典中删除老的缀-符串。在GIF图像格式和UNIX
的压缩程序中已经采用了这些改进措施之后的LZW算法。
LZW算法取得了专利,专利权的所有者是美国的一个大型计算机公司—Unisys(优利系统公司),除了商业
软件生产公司之外,可以免费使用LZW算法。

你可能感兴趣的:(Signal,Processing)