出处不详 ==================================================== 前言: 本文是源于我在(上海交大)饮水思源BBS 的VC版解答其他网友提出的帮助请求。这是德国 DARMSTADT 工业大学C++作业题目之一,属于非计算机系的题目,题目本身要求完成的那几个辅助函数难度并不高。我在BBS上给出了这道题目的解答,但是同时我也想根据这个题目的说明文档,来仔细回顾一下 Huffman 编码。因此本文是以该题目的说明文档为基本框架的。我将对该文档中的主要部分转用中文叙述,当然里面可能还增加有我个人的理解。同时该文档将一并作为附件提供。 该文档是: PD Dr. Ulf Lorenz, 《Introduction to Mathematical Software Examination Sheet (winter term 2009/2010) 》, Department of Mathematics, TECHNISCHE UNIVERSITY DARMSTADT. --hoodlum1980 ===================================================== Hufmann coding 是最古老,以及最优雅的数据压缩方法之一。它是以最小冗余编码为基础的,即如果我们知道数据中的不同符号在数据中的出现频率,我们就可以对它用一种占用空间最少的编码方式进行编码,这种方法是,对于最频繁出现的符号制定最短长度的编码,而对于较少出现的符号给较长长度的编码。哈夫曼编码可以对各种类型的数据进行压缩,但在本文中我们仅仅针对字符进行编码。 1. 压缩数据。 压缩数据由以下步骤组成: a)检查字符在数据中的出现频率。 b)构建哈夫曼树。 c)创建哈夫曼编码表。 d)生成压缩后结果,由一个文件头和压缩后的数据组成。 下面介绍这些步骤的一些细节。 a)字符出现的频率: 我们对要压缩的文本进行扫描,然后记录下各个字符出现的次数(在这里我们的输入文本将仅仅有 ascii 字符构成) ,扫描完成后我们就得到了一个字符的频率表。这个频率表也是后面的文件头的重要组成部分。为了降低文件头的尺寸,我们对字符频率压缩到用一个字节来表示。【注意】,等比例缩小字符频率时,不能把在文本中出现的字符的频率缩小成0! 由以下方法来完成:我们首先提供一个用于填充频率结果的数组(unsigned int freqs[NUM_CHARS],注意尽管这个数组是UINT类型,但是填充数据必须在0~255之间),元素在这个数组中的索引就代表了该字符的 ascii 码。例如填充完毕后,字符‘a’的出现频率即为 freqs['a']; unsigned char* string: 输入的文本。 unsigned int size:输入文本的字符数。
code_create_freq_array
//
给定一个字符串,把字符的出现频率保存到freqs数组中
// Hint: Be carefull that you don’t scale any frequencies to zero for symbols that do appear in the string! void create_freq_array(unsigned int freqs[NUM_CHARS], unsigned char * string , unsigned int size) { int i, maxfreq = 0 ; // 初始化成0 memset(freqs, 0 , sizeof (unsigned int ) * NUM_CHARS); for (i = 0 ; i < size; i ++ ) { freqs[ string [i]] ++ ; if (freqs[ string [i]] > maxfreq) maxfreq = freqs[ string [i]]; } // 把字符频率压缩到一个字节。 scaled freqs to (0~255) if (maxfreq > 0xff ) { for (i = 0 ; i < NUM_CHARS; i ++ ) { if (freqs[i]) { freqs[i] = ( int )(freqs[i] * 255.0 / maxfreq + 0.5 ); // 要确保不会被缩小成0! if (freqs[i] == 0 ) freqs[i] = 1 ; } } } }
b)构建哈夫曼树(huffman Tree); 哈夫曼编码的核心部分就在于构建哈夫曼树,它是一个二叉树。同时它的贪心策略也现在构建哈夫曼树的方法中。 哈夫曼树用下面的方式构建:首先,我们把所有出现的字符作为一个单节点数,在节点上标识一个数字代表字符出现频率。 例如如果我们要对字符串“aabbbccccdddddd" 进行编码,则字符频率表如下所示: ---------------------------- | a b c d | ---------------------------- | 2 3 4 6 | ---------------------------- 一共有4个字符出现,因此最初我们有 4 个单节点的树。然后就是体现贪心策略之处,每次我们选取具有最低频率的两个树,并将他们合并,把两个树的频率相加,赋给新树的根节点。重复这个步骤,直到最后只剩下一棵树,就是最终我们需要的哈夫曼树。合并过程如下图所示:
最终的编码方式是,每个 叶子节点代表了一个在原文中出现的字符。每个字符的编码就是从根节点到该叶子节点的路径。由于字节中的每一位由0,1两种状态,这也正是二叉树尤其重要和常用的原因。从根节点出发,如果进入左子树,则在编码上填0,如果进入右子树,则在编码上填1,直到到达叶子节点,就完成了该字符的编码。从上面的哈夫曼树可见,最终的哈夫曼编码表如下: ======================= 字符 频率 编码 码长 ------------------------------------ a 2 110 3 b 3 111 3 c 4 10 2 d 6 0 1 ======================== 哈夫曼编码是一种前缀码,即任一个字符的编码都不是其他字符编码的前缀。从我们的编码过程中可以很容易看到这一点,因为所有字符都是哈夫曼树中的叶子节点,所以每个字符所在的叶子节点的路径都不会有重叠部分(即代表字符的节点之间不存在以下关系:某节点是另一节点的祖先或后代)。这个特征能够保证解码的唯一性,不会产生歧义(在解码时只需要找到叶子节点即可完成当前字符的解码)。
可以看出,出现频率最高的字符,使用最短的编码,字符出现频率越低,编码逐渐增长。这样不同字符在文档中出现的频率差异越大,则压缩效果将会越好。字符的出现频率差异影响了它们最终在哈夫曼树中的深度。 因此字符出现频率越大,我们希望给它的编码越短(在哈夫曼树中的深度越浅),即我们希望更晚的将它所在的树进行合并。反之,字符频率越低,我们希望给他的编码最长(在哈夫曼树中的深度越深),因此我们希望越早的将它所在的树进行合并。因此,哈夫曼编码的贪心策略就体现在合并树的过程中,我们每一次总是选择根节点频率最小的两个树先合并,这样就能达到我们所希望的编码结果。 在合并树的过程中,为了抽取最小频率的树,我们需要一种重要的数据结构作为辅助:优先级队列(Priority Queue)(最小堆)。什么是优先级队列?优先级队列是指一种维护一组元素的数据结构,它的常用操作是从这些元素中抽取最小的元素,和插入新元素。即他维护了一个动态的元素集合,同时要求插入和抽取尽可能的快。实现优先级队列使用的是数据结构中的堆(Heap)(注意:和内存管理中的堆的概念区别)。 最小堆是一个数据结构,在存储方式上使用的是一维线性表(一维数组)存储元素,这些元素在逻辑上组成一个二叉树。 最小堆要求满足以下特征: 对任何节点:左(右)子节点 >= 本节点。(显然,集合中的最小元素是二叉树的根节点。) (请注意上述特征和二叉查找树相区别,二叉查找树的特征是:左子节点 <= 本节点 <= 右子结点,其中序遍历输出就是排序结果。) 最小堆的数组是以 1 为起始索引的,注意,而不是 C / C++ 中习惯使用的 0-based 数组,因此在 C/C++中,第一个元素(索引为0)通常被浪费。其目的完全是为了能够用下面的简便方式在树节点中导航。 对最小堆中的某个节点 x[i] : 根节点: x [ 1 ] ; 父节点: x [ i / 2 ] ; 左子节点:x [ i * 2 ] ; 右子节点: x [ i * 2 + 1 ] ; 一个最小堆的逻辑二叉树如下图所示:
因此最小堆的最小元素就是根节点。由于最小堆需要经常性的做抽取最小元素和插入操作,因此实际上为了维持堆的特征,每次插入和抽取都要进行节点的调整,因此抽取和插入操作都耗时O(log n)。 对于优先级队列来说,主要需要实现两种基本操作:插入新元素,抽取最小元素。他们的步骤如下: (1)插入新元素:把该元素放在二叉树的末端,然后从该新元素开始,向根节点方向进行交换,直到它到达最终位置。 (2)抽取最小元素:把根节点取走。然后把二叉树的末端节点放到根节点上,然而把该节点向子结点反复交换,直到它到达最终位置。 实现优先级队列的类代码如下所示:
code_PriorityQueue
//
This class is used in the construction of the Huffman tree.
// 优先级队列 class HuffNodePriorityQueue { public : HuffNode * HuffNodes[NUM_CHARS]; unsigned int size; void init() { size = 0 ; } void heapify( int i) { int l,r,smallest; HuffNode * tmp; l = 2 * i; /* left child */ r = 2 * i + 1 ; /* right child */ if ((l < size) && (HuffNodes[l] -> freq < HuffNodes[i] -> freq)) smallest = l; else smallest = i; if ((r < size) && (HuffNodes[r] -> freq < HuffNodes[smallest] -> freq)) smallest = r; if (smallest != i) { /* exchange to maintain heap property */ tmp = HuffNodes[smallest]; HuffNodes[smallest] = HuffNodes[i]; HuffNodes[i] = tmp; heapify(smallest); } } void addItem(HuffNode * node) { unsigned int i,parent; size = size + 1 ; i = size - 1 ; parent = i / 2 ; /* find the correct place to insert */ while ( (i > 0 ) && (HuffNodes[parent] -> freq > node -> freq) ) { HuffNodes[i] = HuffNodes[parent]; i = parent; parent = i / 2 ; } HuffNodes[i] = node; } HuffNode * extractMin( void ) { HuffNode * max; if (isEmpty()) return 0 ; max = HuffNodes[ 0 ]; HuffNodes[ 0 ] = HuffNodes[size - 1 ]; size = size - 1 ; heapify( 0 ); return max; } int isEmpty( void ) { return size == 0 ; } int isFull( void ) { return size >= NUM_CHARS; } }; 在上面的代码中,使用的是 heapify 成员函数,将指定的节点交换到最终位置。 构建哈夫曼树的步骤如下: a)把所有出现的字符作为一个节点(单节点树),把这些树组装成一个优先级队列; b)从该优先级队列中连续抽取两个频率最小的树分别作为左子树,右子树,将他们合并成一棵树(频率=两棵树频率之和),然后把这棵树插回队列中。 c)重复步骤b,每次合并都将使优先级队列的尺寸减小1,直到最后队列中只剩一棵树为止,就是我们需要的哈夫曼树。 相关代码如下:
code_build_Huffman_tree
//
create the Huffman tree from the array of frequencies
// returns a pointer to the root node of the Huffman tree // 根据字符频率数组,创建一个huffman树。返回根节点。 HuffNode * build_Huffman_tree(unsigned int freqs[NUM_CHARS]) { // create priority queue HuffNodePriorityQueue priority_queue; priority_queue.init(); for (unsigned int i = 0 ; i < NUM_CHARS; i ++ ) { if (freqs[i] > 0 ) { HuffNode * node = new HuffNode; node -> c = i; node -> freq = freqs[i]; node -> left = NULL; node -> right = NULL; priority_queue.addItem(node); } } printf( " number of characters: %d\n " , priority_queue.size); // create the Huffman tree while (priority_queue.size > 1 ) { HuffNode * left = priority_queue.extractMin(); HuffNode * right = priority_queue.extractMin(); HuffNode * root = new HuffNode; root -> freq = left -> freq + right -> freq; root -> left = left; root -> right = right; priority_queue.addItem(root); } // return pointer to the root of the Huffman tree return priority_queue.extractMin(); } d) 压缩数据; 我们已经建立了哈夫曼树,并根据哈夫曼树建立了字符的哈夫曼编码表,因此现在压缩数据的方法将是很显而易见的,我们遍历输入的文本,对每个字符,根据编码表依次把当前字符的编码写入到编码结果中去。为了能够解压缩,我们还需要在编码时写入一个文件头,这样我们在解码时能够重建(和编码时同样的)哈夫曼树。最终的文件格式定义如下: File Header(文件头): unsigned int size; 被编码的文本长度(字符数); unsigned char freqs[ NUM_CHARS ]; 字符频率表 compressed; (Bits: 压缩后的数据); 注意:压缩后的Bits实际上必须以字节为最小单位。因此 Bits 需要向上取整到整数字节。 2. 解压缩数据; 解压缩数据的过程是: e) 读取文件头; f)根据文件头重建哈夫曼树;(和压缩数据时的步骤一致,代码是复用的) g)根据哈夫曼树读取并逐个字符解码; e) 读取文件头: 这一部是处于文件头的信息,文件头由输入文本的字节数和(已等比例压缩到一个字节)字符频率表组成。根据这些信息构建出字符频率表,这一步骤和压缩数据时一样。 g) 解码: 我们遍历编码后的Bits,每一次都从哈夫曼树的根节点出发,遇到0时,进入节点的左子树,遇到1时进入节点的右子树,直到到达叶子节点为止,并取得最终的字符。重复这一过程,知道所有字符都已经解码。 总结:对上述的编码解码过程如下图所示。其中编码时的输入是明文字符串,输出是压缩后的文件。对于解码来说输入和输出和前者相反。
最后,提供已经补充完整的代码文件和原PDF文档: http://files.cnblogs.com/hoodlum1980/Huffman.rar
当我们使用上面的代码对“aabbbccccdddddd”进行哈夫曼编码时,程序产生的输出如下: size of input: 15 number of characters: 4 character encodings: compressed string: (size: 32 bit) //注意后三个Bit 不携带信息,仅为了补齐成 8 Bits 整数倍;
size of compressed string: 15 uncompressed string: (size: 120 bit) aabbbccccdddddd
【备注】程序也可以接收一个命令行参数(文本文件的文件名)作为输入,在编码后保存成一个二进制文件,然后再从该二进制文件解码并保存到另一个新的文本文件。 |