一、准备编译软件

1.在官网下载jdk1.7、maven3.2.1、ant1.9.4,解压设置好环境变量就可以用。

  环境变量设置如下:

(1)执行vim /etc/profile  

(2)在文件尾部加入:  

export JAVA_HOME=/home/spark/jdk1.7  
export MAVEN_HOME=/home/spark/apache-maven-3.2.1  
export ANT_HOME=/home/spark/apache-ant-1.9.4  
export PATH=$JAVA_HOME/bin:$MAVEN_HOME/bin:$ANT_HOME/bin:$PATH  
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

(3)执行source /etc/profile  

2.在官网下载protobuf2.5.0解压后进入目录依次执行如下命令:

./configure  
make  
make check  
make install

3.安装其它软件,我这里使用yum命令安装。

yum install cmake openssl-devel autoconf automake libtool (有些软件操作系统可能自带,安装时请使用rpm -qa命令查看)

二、下载Hadoop源码开始编译

1.登录官网:http://hadoop.apache.org/,找到下载链接,点进去下载即可。

2.解压编译:

tar zxvf hadoop-2.4.0-src.tar.gz  
cd  hadoop-2.4.0-src  
mvn package -Pdist,native -DskipTests -Dtar

  半个多小时后出现BUILD SUCCESS,即编译成功,可在hadoop-2.4.0-src/hadoop-dist/target文件夹中找到编译的文件。

三、参考文档

http://www.cnblogs.com/shishanyuan/p/4164104.html  
http://www.aboutyun.com/thread-8130-1-1.html