hadoop节点管理

(hadoop版本1.0.3)

hadoop增加节点操作

前提操作系统环境已经成功安装完成,步骤如下:

第一: master主机里的$HADOOP_HOME/conf下,修改slaves文件,增加新增节点主机名

第二:配置免登录设置

第三:新增节点启动datanode和tasktracker两个进程

          $HADOOP_HOME/bin/hadoop-daemon.sh start datanode

         $HADOOP_HOME/bin/hadoop-daemon.sh start tasktracker

第四:master刷新所有节点

         $HADOOP_HOME/bin/hadoop dfsadmin -refreshNodes

 

数据均衡操作

[hadoop@master hadoop-1.0.3]# ./bin/start-balancer.sh

1) 如果不balance,那么cluster会把新的数据都存放在新的node上,这样会降低mapred的工作效率
2) 设置平衡阈值,默认是10%,值越低各节点越平衡,但消耗时间也更长

[hadoop@master hadoop-1.0.3]# ./bin/start-balancer.sh -threshold 5
hadoop balancer -Threshold 20

   参数20是比例参数,表示20%,也就是平各个DataNode直接磁盘使用率偏差在20%以内。

3) 设置balance的带宽,默认只有1M/s

 <property>
   <name>dfs.balance.bandwidthPerSec</name>
   <value>1048576</value>
   <description>
     Specifies the maximum amount of bandwidth that each datanode
     can utilize for the balancing purpose in term of
     the number of bytes per second.
   </description>
 </property>

注意:
1. 必须确保slave的firewall已关闭;
2. 确保新的slave的ip已经添加到master及其他slaves的/etc/hosts中,反之也要将master及其他slave的ip添加到新的slave的/etc/hosts中

 

删除相关节点操作

1.集群配置
修改conf/hdfs-site.xml文件(需要排除节点配置存放路径)

 <property>
   <name>dfs.hosts.exclude</name>
   <value>/home/hadoop/hadoop/conf/excludes</value>
   <description>Names a file that contains a list of hosts that are
   not permitted to connect to the namenode.  The full pathname of the
   file must be specified.  If the value is empty, no hosts are
   excluded.</description>
 </property>

 

2.确定要下架的机器
dfs.hosts.exclude定义的文件内容为,每个需要下线的机器,一行一个。这个将阻止他们去连接Namenode。如:

slave10
slave11

3.强制重新加载配置

[hadoop@master hadoop-1.0.3]# ./bin/hadoop dfsadmin  -refreshNodes

它会在后台进行Block块的移动

4.关闭节点 
等待刚刚的操作结束后,需要下架的机器就可以安全的关闭了。

[hadoop@master hadoop-1.0.3]# ./bin/ hadoop dfsadmin -report

可以查看到现在集群上连接的节点

正在执行Decommission,会显示:
Decommission Status : Decommission in progress  

执行完毕后,会显示:
Decommission Status : Decommissioned

5.再次编辑excludes文件
一旦完成了机器下架,它们就可以从excludes文件移除了
登录要下架的机器,会发现DataNode进程没有了,但是TaskTracker依然存在,需要手工处理一下

 

注意下:

少用数据均衡操作。现在体验了下,集群节点不多,数据总量在2TB多,均衡起来时间非常长(起始时间:13:44:12 截止时间:16:56:37)。

少进行删除节点操作,因为也涉及到节点的数据迁移处理,非常耗时。

 

在使用的过程当中,应当注意此两项操作。除非真是业务需要,不然尽量避免这些操作。

你可能感兴趣的:(hadoop)