linux虚拟机安装hadoop集群(hadoop-2.7.5)

一台机器作为namenode节点 及resourcemanager节点,两台机器作为datanode节点及nodemanager节点。

1、配置三台服务器的/etc/hosts,或者使用DNS服务器。

2、三台机器安装jdk1.8.0_102及配置好环境变量。
3、创建系统用户。
4、配置免密码登陆。
5、解压hadoop压缩包,并在 hadoop目录下,建立tmp、hdfs/name、hdfs/data目录
6、修改 hadoop-env.sh,指定 JAVA_HOME
7、修改 core-site.xml
fs.default.name
hdfs://master.spark.com:9000
hadoop.tmp.dir
/home/cooljack/hadoop-2.7.5/tmp
8、修改hdfs-site.xml
dfs.replication
2
dfs.namenode.name.dir
file:/home/cooljack/hadoop-2.7.5/hdfs/name
dfs.datanode.data.dir
file:/home/cooljack/hadoop-2.7.5/hdfs/data
9、修改mapred-site.xml
mapreduce.framework.name
yarn
10、修改slaves
slave1.spark.com
slave2.spark.com
11、把hadoop文件目录同步到其他节点。
12、格式化bin/hdfs namenode -format
13、运行sbin/start-all.sh
14、访问地址:
http://192.168.136.11:50070/
http://192.168.136.11:8088/





你可能感兴趣的:(linux虚拟机安装hadoop集群(hadoop-2.7.5))