Hadoop权威指南-ch4 Hadoop的I/O(2)

注:本文涉及书中4.2小结

文件压缩

好处:减少存储文件的磁盘空间,加速网络和磁盘的数据传输。

Hadoop权威指南-ch4 Hadoop的I/O(2)_第1张图片
与Hadoop结合使用的常见压缩方法

所有的压缩方法都要权衡空间/时间,也就是说,压缩和解压的速度越快,节约的空间越少。

1. codec


补充

压缩算法的实现被称为codec,是Compressor/Decompressor的简写。很多codecs在Hadoop中很常用,每种都有不同的性能特性。但是,不是所有的Hadoop工具都是跟所有codecs兼容的。Hadoop中常用的压缩算法有bzip2、gzip、lzo、snappy,其中lzo、snappy需要操作系统安装native库才可以支持。


在Hadoop中,一个对CompressionCodec接口的实现代表一个codec

· 压缩与解压缩

CompressionCodec可以实现压缩解压缩

(1)压缩:对写入输出数据流的数据进行压缩,用createOutputStream()方法

(2)解压缩:对读取输入数据流的数据进行解压缩,用createInputStream()方法

· 使用CompressionCodecFactory推断压缩算法

当在读取一个压缩文件的时候,可能并不知道压缩文件用的是哪种压缩算法,那么无法完成解压任务。在Hadoop中,CompressionCodecFactory通过使用其getCodec()方法,可以通过文件扩展名映射到一个与其对应的CompressionCodec类,如README.txt.gz通过getCodec()方法后,GipCodec类。

· 原生类库(native)

使用“原生”(native)类库进行压缩和解压缩,可以提高性能,但不是所有格式都有原生实现。

Hadoop权威指南-ch4 Hadoop的I/O(2)_第2张图片

默认情况下,Hadoop会根据自身运行的平台搜索原生代码库,并自动加载。


补充

为什么需要原生库?

Hadoop是使用Java语言开发的,但是有一些需求和操作并不适合使用java,所以就引入了原生库or本地库(Native Libraries) 的概念。说白了,就是Hadoop的某些功能,必须通过JNT来协调Java类文件和Native代码生成的库文件一起才能工作。


· CodecPool

如果使用原生库且需要执行大量的压缩和解压缩,可以考虑使用CodecPool,支持反复使用压缩和解压缩。


补充:

对本书范例4-3的CodecPool的进一步说明

我们从CodecPool中提取压缩器和解压器只是为了构建压缩流。

codec.createOutputStream(out,compressor)使用压缩器compressor,在底层输出流out的基础上创建对应的压缩流。

如果不用codecpool每创建一个CompressionOutputStream就会调用createOutputStream(OutputStream out)来实现压缩的方法,频繁做消耗的资源是很大的,codecpool就是让你反复去利用相同类型的压缩器,以达到分摊开销的目的,通俗一点就是让你不用每次都去实现相应的压缩功能。

参考:https://blog.csdn.net/summerdg/article/details/14019555


2. 压缩与输入分片(splitting)

如果用MapReduce处理压缩数据,就必须理解这些压缩格式是否支持切片(splitting)。

见上面表4-1,可知某个压缩格式是否支持切片。

3. 在MapReduce中使用压缩

· MapReduce读文件的解压缩和输出文件的压缩

(1)解压缩:MapReduce读文件时会通过CompressionCodecFactory来推断codec压缩算法,从而自动解压缩文件。

(2)压缩:压缩MapReduce作业的输出有两种方法

方法1:在作业配置中设置mapred.output.compress和mapred.output.compression.codec属性

方法2:在FileOutputFormat中设置属性

· 对map任务的输出进行压缩

由于map任务的输出需要写到磁盘并通过网络传输到reducer节点,所以如果使用LZO、LZ4或者Snappy这样的快速压缩方式,可以提升性能。在配置中设置属性即可。

你可能感兴趣的:(Hadoop权威指南-ch4 Hadoop的I/O(2))