注意:NameNode和SecondaryNameNode不要安装在同一台服务器
(2NN备份元数据的,如果放在一台机器上,机器宕机元数据就拿不到)
注意:ResourceManager也很消耗内存,不要和NameNode、SecondaryNameNode配置在同一台机器上。
Linux系统中获取JDK的安装路径:
[soft863@ hadoop100 ~]# echo $JAVA_HOME
/opt/module/jdk1.8.0_212
export JAVA_HOME=/opt/module/jdk1.8.0_212
cd $HADOOP_HOME/etc/hadoop
vim core-site.xml
文件内容如下:
fs.defaultFS
hdfs://hadoop100:9820
hadoop.data.dir
/opt/module/hadoop-3.1.3/data
vim hdfs-site.xml
文件内容如下:
dfs.namenode.name.dir
file://${ hadoop.data.dir}/name
dfs.datanode.data.dir
file://${ hadoop.data.dir}/data
dfs.namenode.checkpoint.dir
file://${hadoop.data.dir}/namesecondary
dfs.client.datanode-restart.timeout
30
dfs.namenode.http-address
hadoop100:9870
dfs.namenode.secondary.http-address
hadoop102:9868
vim yarn-site.xml
文件内容如下:
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.resourcemanager.hostname
hadoop101
yarn.nodemanager.env-whitelist
JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME
vim mapred-site.xml
文件内容如下:
mapreduce.framework.name
yarn
[root@hadoop102 opt]# cd /opt
[root@hadoop102 opt]# scp -r module/ hadoop100:/opt/
[root@hadoop102 opt]# rsync -av module hadoop101:/opt/
[root@hadoop102 opt]# rsync -av /etc/profile hadoop101:/etc
[root@hadoop102 opt]# rsync -av /etc/profile hadoop100:/etc
[root@hadoop100 opt]# source /etc/profile
[root@hadoop101 opt]# source /etc/profile
分布式集群第一次启动之前要格式化
格式化之前,要把三个服务器上的hadoop安装目录下的 data目录和logs目录都删掉
[root@hadoop101 opt]# cd /opt/module/hadoop-3.1.3
[root@hadoop101 opt]# rm -rf data
[root@hadoop101 opt]# rm -rf logs
在指定namenode运行的服务器上执行格式化:
(namenode指定在hadoop100上运行的)
[root@hadoop100 hadoop-3.1.3]# hdfs namenode -format
单启
Hadoop100:
hdfs --daemon start namenode
hdfs --daemon start datanode
yarn --daemon start nodemanager
hadoop101:
yarn --daemon start resourcemanager
hdfs --daemon start datanode
yarn --daemon start nodemanager
hadoop102:
hdfs --daemon start secondarynamenode
hdfs --daemon start datanode
yarn --daemon start nodemanager
1)启动hdfs相关
hdfs --daemon start namenode
hdfs --daemon start datanode
2)启动yarn相关
yarn --daemon start resourcemanager
yarn --daemon start nodemanager
启动集群
如果集群上已经启动hadoop相关程序,可以先执行停止。
在hadoop100上执行以下脚本,用来启动hdfs:
[root@hadoop100] start-dfs.sh
在hadoop101上执行以下脚本,用来启动yarn:
[root@hadoop101] start-yarn.sh
停止集群
在hadoop100上执行以下脚本,用来停止hdfs:
[root@hadoop100] stop-dfs.sh
在hadoop101上执行以下脚本,用来停止yarn:
[root@hadoop101] stop-yarn.sh