lzo压缩格式有很快的压缩/解压速度和合理的压缩率,并且支持分块(split),所以lzo是目前在hadoop中最流行的压缩格式。hadoop中的lzo不是自带的,如果要支持lzo,需要另外安装。本文介绍了在hadoop2.0上安装和配置lzo,同样也适用于hadoop1.0。
需要在集群的每一个节点都安装lzo库,假定都64位的机器。
在http://rpm.pbone.net/index.php3/stat/4/idpl/12088286/dir/redhat_el_5/com/lzo2-2.02-3.el5.rf.x86_64.rpm.html下载rpm包lzo2-2.02-3.el5.rf.x86_64.rpm 并安装
sudo rpm -ivh lzo2-2.02-3.el5.rf.x86_64.rpm
在http://rpm.pbone.net/index.php3/stat/4/idpl/18007725/dir/redhat_el_5/com/lzo-devel-2.06-1.el5.rf.x86_64.rpm.html下载rpm包lzo-devel-2.06-1.el5.rf.x86_64.rpm并安装
sudo rpm -ivh lzo-devel-2.06-1.el5.rf.x86_64.rpm
在http://pkgs.repoforge.org/lzop/下载rpm包lzop-1.03-1.el5.rf.x86_64.rpm并安装
sudo rpm -ivh lzop-1.03-1.el5.rf.x86_64.rpm
lzop是一个linux下的lzo压缩命令行工具,方便大家在linux下压缩lzo文件,不是必需的。
可以下载kevinweil的hadoop-lzo项目,下载地址:https://github.com/kevinweil/hadoop-lzo
也可以下载twitter的hadoop-lzo项目,下载地址:https://github.com/twitter/hadoop-lzo/
twitter的一直在更新和维护,建议下载twitter的
wget https://github.com/twitter/hadoop-lzo/archive/master.zip --no-check-certificate -O master.zip
下载之后解压
upzip master.zip
解压之后是一个目录hadoop-lzo-master
可以修改目录hadoop-lzo-master里的pom.xml,把hadoop.current.version的属性从hadoop2.1.0-beta改为Hadoop 2.2.0(这个不修改也没有问题,不过还是建议改一下)
64位环境的需要设置两个环境变量:
export CFLAGS=-m64 export CXXFLAGS=-m64
然后就可以用maven编译了
cd hadoop-lzo-master mvn clean package -Dmaven.test.skip=true
注意:如果前面的linux lzo库没有安装在标准目录下,在用maven编译前需要设置C_INCLUDE_PATH和LIBRARY_PATH这两个环境变量,指出lzo的头文件和库文件在哪个目录,如:
export C_INCLUDE_PATH=/usr/local/lzo-2.06/include export LIBRARY_PATH=/usr/local/lzo-2.06/lib
编译好之后把编译出来的本地库和jar包hadoop-lzo-0.4.18-SNAPSHOT.jar拷贝到相应的目录,并拷贝到集群的每一个节点上的相应的目录。
cp target/native/Linux-amd64-64/* $HADOOP_HOME/lib/native/ cp target/hadoop-lzo-0.4.20-SNAPSHOT.jar $HADOOP_HOME/share/hadoop/mapreduce/lib/
修改/增加以下2个参数:
<property> <name>io.compression.codecs</name> <value>org.apache.hadoop.io.compress.GzipCodec, org.apache.hadoop.io.compress.DefaultCodec, org.apache.hadoop.io.compress.BZip2Codec, com.hadoop.compression.lzo.LzoCodec, com.hadoop.compression.lzo.LzopCodec </value> </property> <property> <name>io.compression.codec.lzo.class</name> <value>com.hadoop.compression.lzo.LzoCodec</value> </property>
和hadoop服务器的机器上的安装和配置一样。
可以运行以下hdfs命令看是否成功
$HADOOP_HOME/bin/hdfs dfs -text /path/to/file.lzo
运行一个以lzo文件为输入的作业是否运行成功
在hadoop2.0中,把maven编译好的jar包hadoop-lzo-0.4.20-SNAPSHOT.jar拷贝到 $HADOOP_HOME/share/hadoop/mapreduce/lib/或者$HADOOP_HOME/share/hadoop/mapreduce/目录下,不需要重启hadoop集群。
https://github.com/twitter/hadoop-lzo
https://github.com/kevinweil/hadoop-lzo
http://www.cloudera.com/blog/2009/11/17/hadoop-at-twitter-part-1-splittable-lzo-compression/
http://code.google.com/p/hadoop-gpl-compression