1.centos下默认安装的是openjdk,需要先卸载。先检查是否含有openjdk的包
$ java -version
$ rpm -qa | grep java
2.如果发现有安装好的OpenJDK以及安装包的话那么首先依次执行卸载。 卸载命令:
$ rpm -e –nodeps tzdata-java-2012c-1.el6.noarch
$ rpm -e –nodeps java-1.6.0-openjdk-1.6.0.0-1.45.1.11.1.el6.x86_64
3.下载jdk安装包,并解压
$ tar -zxvf jdk-linux-x64.tar.gz
4.安装完成后需要配置环境变量,编辑/etc/profile文件:
$ vim /etc/profile
在文件尾部添加如下配置:
$ export JAVA_HOME=/usr/local/jdk1.8.0-131
$ export JRE_HOME=$JAVA_HOME/jre
$ export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
$ exprot PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
1.下载hadoop安装包,并解压
$ tar -zxvf hadoop-2.6.5.tar.gz
2.配置hadoop环境变量,编辑/etc/profile文件:
$ export HADOOP_PREFIX=/usr/local/hadoop-2.6.5
$ export PATH=$HADOOP_PREFIX/sbin:$HADOOP_PREFIX/bin:$PATH
3.单机测试
$ mkdir input
$ cp etc/hadoop/*.xml input
$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.5.jar grep input output 'dfs[a-z.]+'
$ cat output/*
1.编辑 etc/hadoop/core-site.xml
<configuration>
<property>
<name>fs.defaultFSname>
<value>hdfs://localhost:9000value>
property>
configuration>
2.编辑etc/hadoop/hdfs-site.xml
<configuration>
<property>
<name>dfs.replicationname>
<value>1value>
property>
configuration>
3.初始化文件系统
$ bin/hdfs namenode -format
4.启动namenode和datanode守护线程
$ sbin/start-dfs.sh
5.测试
复制input文件夹到分布式文件系统
$ bin/hdfs dfs -put etc/hadoop inpu
运行示例程序
$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.5.jar grep input $ output 'dfs[a-z.]+'
查看输出文件
从文件系统复制出结果
$ bin/hdfs dfs -get output output
$ cat output/*
或者
从文件系统直接查看
$ bin/hdfs dfs -cat output/*
最后关闭守护进程
$ sbin/stop-dfs.sh
1.配置etc/hadoop/mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.namename>
<value>yarnvalue>
property>
configuration>
2.配置etc/hadoop/yarn-site.xml:
<configuration>
<property>
<name>yarn.nodemanager.aux-servicesname>
<value>mapreduce_shufflevalue>
property>
configuration>
3.启动yarn
$ sbin/start-yarn.sh