HDFS集群扩容节点


    在企业中,经常需要根据业务的发展对HDFS集群进行节点扩容。比如我们要添加一个新DataNode节点到集群中:

    新节点主机名:bigdata114    IP地址:192.168.20.114

    节点上运行进程: datanode、 nodemanager



640

操作步骤:

    在bigdata114机器安装jdk并且配置环境变量。

    在bigdata114机器安装hadoop2.8.4并且配置环境变量。

    将namenode服务器上的hadoop2.8.4的配置复制到bigdata114机器上。

scp -r /opt/module/hadoop-2.8.4/etc/ root@bigdata114:/opt/module/hadoop-2.8.4/

    将集群中所有的hadoop的slaves配置文件中都添加上“bigdata114”

bigdata111	
bigdata112	
bigdata113	
bigdata114



640

640?wx_fmt=gif

640


配置ssh免密操作:

    生成秘钥:

ssh-keygen 

    发送秘钥至每个节点:

bigdata114秘钥-->bigdata111~114	
ssh-copy-id bigdata111	
ssh-copy-id bigdata113	
ssh-copy-id bigdata112	
ssh-copy-id bigdata114	
bigdata111~113秘钥-->bigdata114	
ssh-copy-id bigdata114

640

640?wx_fmt=gif

640

启动bigdata114节点的datanode、 nodemanager:

${HADOOP_HOME}/sbin/hadoop-daemon.sh start datanode	
${HADOOP_HOME}/sbin/yarn-daemon.sh start nodemanager

使用jps查看是否启动:

2729 NodeManager	
29081 Jps	
27643 DataNode

打开hadoop的web页面查看是否启动成功:

HDFS集群扩容节点_第1张图片


640




HDFS集群扩容节点_第2张图片


你可能感兴趣的:(HDFS集群扩容节点)