题目:在一个文件中存放着几百万个非负整形数据,它们最大不超过7位,且无重复数据,现将该文件中的数据按升序进行排序。
对于排序,相信没人会陌生,已知的通用排序算法对于这个题目都显得有些力不从心,昂贵的内存开销(如果采用硬盘排序倒是可以减少内存开销,但时间上将耗费更多),巨大的时间耗费(这点是最不能接受的)。所谓的巧妙算法实际上都是分析问题的特点,针对它的特殊性而得出的。对于这个问题,有两个条件必须注意:一是数据非负且最大不超过7位;二是数据无重复。有了这两个条件,位图就可以派上用场了。
可以设置一个大小为1000万的位图,差不多相当于二十多万个整形的大小,它的每一位对应着一个最大不超过7位的数据,先清空该位图,然后从文件中读数据,将相应位置1。然后扫描位图,将非0位的对应数据输出到文件中去,整个过程便己完成,具体算法如下:
#define SIZEBIT 10000000 #define SIZE SIZEBIT/32 + 1 void cleanAll(unsigned int* bitmap) { int i; for (i = 0; i < SIZE; ++i) bitmap =0; } void set(unsigned int* bitmap, unsigned int index) { bitmap[index/32] |= 1 << index%32; } void clean(unsigned int* bitmap, unsigned int index) { bitmap[index/32] &= ~(1 << index%32); } int get(unsigned int* bitmap, unsigned int index) { return bitmap[index/32] & (1 << index%32); } void sort() { unsigned int bitmap[SIZE]; cleanAll(bitmap); FILE *fp = fopen("sortFile.txt", "r"); unsigned int data; while (EOF != fscanf(fp, "%d", &data)) { set(bitmap, data); } fclose(fp); fp = fopen("sorted.txt", "w"); int i; for (i = 0; i < SIZEBIT; ++i) { if (get(bitmap, i)) fprintf(fp, "%d\n", i); } fclose(fp); }
实际上这种思想有点类似于哈希,只不过哈希算法简单的成了VALUE=KEY而已。如果条件中允许重复,我们就需要额外弄一个count数组用于计算重复数据。而如果数据没有几百万那么大,但它分部的很均匀,我们仍可以使用这种算法,可以将哈希桶的大小弄得小一点,以减小内存开销,不过我们恐怕还得花费额外的精力去处理哈希冲突,可以考虑使用链表,然后使用插入排序算法。而如果数据的分部不是那么均匀,而是存在着大量的局部收敛,那么哈希冲突所带来的巨大的时间耗费便不是我们可以接受的了,就应该考虑其它算法思想了。