Hadoop经常用于处理大量的数据,如果期间的输出数据、中间数据能压缩存储,对系统的I/O性能会有提升。综合考虑压缩、解压速度、是否支持split,目前lzo是最好的选择。LZO(LZO是Lempel-Ziv-Oberhumer的缩写)是一种高压缩比和解压速度极快的编码,它的特点是解压缩速度非常快,无损压缩,压缩后的数据能准确还原,lzo是基于block分块的,允许数据被分解成chunk,能够被并行的解压。LZO库实现了许多有下述特点的算法:
(1)、解压简单,速度非常快。
(2)、解压不需要内存。
(3)、压缩相当地快。
(4)、压缩需要64 kB的内存。
(5)、允许在压缩部分以损失压缩速度为代价提高压缩率,解压速度不会降低。
(6)、包括生成预先压缩数据的压缩级别,这样可以得到相当有竞争力的压缩比。
(7)、另外还有一个只需要8 kB内存的压缩级别。
(8)、算法是线程安全的。
(9)、算法是无损的。
来源: https://www.iteblog.com/archives/992.html
这里至少需要安装3个软件包:lzo, lzop, hadoop-gpl-packaging。gpl-packaging的作用主要是对压缩的lzo文件创建索引,否则的话,无论压缩文件是否大于hdfs的block大小,都只会按照默认启动2个map操作
[root@hadoop001 ~]# yum -y install lzo-devel zlib-devel gcc autoconf automake libtool
#解压
[root@hadoop001 software]# tar -zxvf lzo-2.10.tar.gz -C /root/source
#配置 编译 安装
[root@hadoop001 lzo-2.10]# ./configure -enable-shared -prefix=/usr/local/hadoop/lzo/
[root@hadoop001 lzo-2.10]# make && make install
#查看 /usr/local/hadoop/lzo
[root@hadoop001 lzo]# ll
total 0
drwxr-xr-x 3 root root 16 Oct 8 19:52 include
drwxr-xr-x 3 root root 114 Oct 8 19:52 lib
drwxr-xr-x 3 root root 16 Oct 8 19:52 share
[root@hadoop001 lzo]#
- 注: 将/usr/local/hadoop/lzo目录下的所有文件打包,并同步到集群中的所有机器上
#下载
[root@hadoop001 software]# wget http://www.lzop.org/download/lzop-1.04.tar.gz
[root@hadoop001 software]# tar -zxvf lzop-1.04.tar.gz -C /root/source
#配置 编译 安装
[root@hadoop001 lzop-1.04]# ./configure -enable-shared -prefix=/usr/local/hadoop/lzop/
[root@hadoop001 lzop-1.04]# make && make install
#下载
[root@hadoop001 software]# wget https://github.com/twitter/hadoop-lzo/archive/master.zip
#解压
[root@hadoop001 software]# unzip master.zip
UTF-8
2.6.4
1.0.4
#进入 目录 依次执行 一下命令
[root@hadoop001 hadoop-lzo-master]# export CFLAGS=-m64
[root@hadoop001 hadoop-lzo-master]# export CXXFLAGS=-m64
[root@hadoop001 hadoop-lzo-master]# export C_INCLUDE_PATH=/usr/local/hadoop/lzo/include
[root@hadoop001 hadoop-lzo-master]# export LIBRARY_PATH=/usr/local/hadoop/lzo/lib
[root@hadoop001 hadoop-lzo-master]# mvn clean package -Dmaven.test.skip=true
[root@hadoop001 hadoop-lzo-master]# cd target/native/Linux-amd64-64
[root@hadoop001 Linux-amd64-64]# tar -cBf - -C lib . | tar -xBvf - -C ~
./
./libgplcompression.so.0.0.0
./libgplcompression.so.0
./libgplcompression.so
./libgplcompression.la
./libgplcompression.a
其中libgplcompression.so和libgplcompression.so.0是链接文件,指向libgplcompression.so.0.0.0,
将刚刚生成的libgplcompression*和target/hadoop-lzo-0.4.18-SNAPSHOT.jar同步到集群中的所有机器对应的目录。
[root@hadoop001 ~]#cp ~/libgplcompression* $HADOOP_HOME/lib/native/
#到 /root/software/hadoop-lzo-master/target
[root@hadoop001 hadoop-lzo-master]# cd target
[root@hadoop001 target]# cp hadoop-lzo-0.4.21-SNAPSHOT.jar $HADOOP_HOME/share/hadoop/common/
#增加
export LD_LIBRARY_PATH=/usr/local/hadoop/lzo/lib
io.compression.codecs
org.apache.hadoop.io.compress.GzipCodec,
org.apache.hadoop.io.compress.DefaultCodec,
com.hadoop.compression.lzo.LzoCodec,
com.hadoop.compression.lzo.LzopCodec,
org.apache.hadoop.io.compress.BZip2Codec
io.compression.codec.lzo.class
com.hadoop.compression.lzo.LzoCodec
mapred.compress.map.output
true
mapred.map.output.compression.codec
com.hadoop.compression.lzo.LzoCodec
mapred.child.env
LD_LIBRARY_PATH=/usr/local/hadoop/lzo/lib
#压缩测试文件
[hadoop@hadoop001 data]$ lzop test.txt
[hadoop@hadoop001 data]$ ll
total 14160
-rw-r--r-- 1 hadoop hadoop 46 Oct 8 21:47 test.txt
-rw-r--r-- 1 hadoop hadoop 100 Oct 8 21:47 test.txt.lzo
#上传到hdfs
[hadoop@hadoop001 data]$ hadoop fs -put test.txt.lzo /data
#使用自带的wordcount 测试
hadoop jar hadoop-mapreduce-examples-2.6.0-cdh5.15.1.jar wordcount /data/test.txt.lzo outdata/lzo1
#不支持分片:
19/10/08 22:03:17 INFO mapreduce.JobSubmitter: number of splits:1
[hadoop@hadoop001 mapreduce]$ hadoop jar $HADOOP_HOME/share/hadoop/common/hadoop-lzo-0.4.21-SNAPSHOT.jar com.hadoop.compression.lzo.LzoIndexer /data/test.txt.lzo
[hadoop@hadoop001 mapreduce]$ hadoop fs -ls /data
Found 2 items
-rw-r--r-- 1 hadoop supergroup 100 2019-10-08 21:55 /data/test.txt.lzo
-rw-r--r-- 1 hadoop supergroup 8 2019-10-08 22:17 /data/test.txt.lzo.index
[hadoop@hadoop001 mapreduce]$ hadoop jar hadoop-mapreduce-examples-2.6.0-cdh5.15.1.jar wordcount \
-D mapreduce.job.inputformat.class=com.hadoop.mapreduce.LzoTextInputFormat \
-D mapred.output.compress=true \
-D mapred.output.compression.codec=com.hadoop.compression.lzo.LzopCodec \ /data/test.txt.lzo outdata/lzo3
[hadoop@hadoop001 mapreduce]$ hadoop fs -ls /user/hadoop/outdata/lzo3
Found 2 items
-rw-r--r-- 1 hadoop supergroup 0 2019-10-08 22:34 /user/hadoop/outdata/lzo3/_SUCCESS
-rw-r--r-- 1 hadoop supergroup 70 2019-10-08 22:34 /user/hadoop/outdata/lzo3/part-r-00000.lzo