Hadoop2.2.0分布式安装

1、下载hadoop-2.2.0.tar.gz,解压tar -xzvf hadoop-2.2.0.tar.gz

2、进入hadoop目录下创建tmp目录和dfs/data目录、dfs/name目录

3、进入配置文件存放目录${HADOOP_HOME}/etc/hadoop

3-1,修改hadoop-env.sh和yarn-env.sh中JAVA_HOME使之与系统一致

3-2,core-site.xml内容如下:



fs.defaultFS
hdfs://master:9101



hadoop.tmp.dir
/root/hadoop-2.2.0/tmp
tmp临时目录


io.native.lib.available
true
是否启用本地native库


3-3,hdfs-site.xml内容如下:




dfs.namenode.name.dir
/root/hadoop-2.2.0/dfs/name


dfs.datanode.data.dir
/root/hadoop-2.2.0/dfs/data


dfs.secondary.http.address
master:9001


dfs.webhdfs.enabled
true




3-4、mapred-site.xml内容如下:




mapreduce.framework.name
yarn




2-5、yarn-site.xml内容如下:






yarn.resourcemanager.address
master:8032


yarn.resourcemanager.scheduler.address
master:8030


yarn.resourcemanager.webapp.address
master:8088


yarn.resourcemanager.resource-tracker.address
master:8031


yarn.nodemanager.aux-services
mapreduce_shuffle






3-5、根据实际情况修改masters文件slaves文件

4、利用scp将整个hadoop文件夹同步到各个节点

5、namenode格式化
hadoop namenode -format 或hdfs namenode -format

6、启动

start-dfs.sh && start-yarn.sh 或start-all.sh

启动完后在master上通过jps可查看到进程ResourceManager、SecondaryNameNode、NameNode;

在slave上可查看到NodeManager、DataNode。

此外,也可在web界面上查看,地址http://master:8088/cluster

若发现进程启动失败,则进入出错节点的${HADOOP_HOME}/logs目录下查看相应*.log文件

你可能感兴趣的:(Hadoop2.2.0分布式安装)