Hadoop 服役新节点和退役旧节点

一、服役新节点

1.克隆一台节点

(1)修改IP主机名
(2)删除HDFS文件系统的data 和 log文件夹
(3)source /etc/profile
(4)免密登录
(5)集群中的 slaves文件添加新节点的主机名

2.启动节点

sbin/hadoop-daemon.sh start datanode
sbin/hadoop-daemon.sh start nodemanager

二、退役旧节点

1.白名单模式(不推荐略)

2.黑名单模式(推荐)

(1)在hadoop配置文件目录下/etc/hadoop创建dfs.hosts.exclude文件,添加新的主机节点

dfs.hosts.exclude

s204

(2)修改hdfs-site.xml文件,并分发(分发脚本也要改下)

<property>
    <name>dfs.hosts.exclude</name>
    <value>/usr/local/hadoop2.7.3/etc/hadoop/dfs.hosts.exclude</value>
</property>

(3)刷新NameNode 属性ResourceManager

hdfs dfsadmin -refreshNodes
yarn rmadmin -refreshNodes

(4)50070网页查看


你可能感兴趣的:(大数据hadoop,hadoop,大数据)