ERROR:格式化hdfs后,datanode只启动了一个

问题描述:使用dfs-format格式化hdfs之后,出现datanode只启动了一个的错误(原来有3个datanode,2个namenode)

现场还原:
先查看一下namenode中 /$HADOOP_HOME/tmp/dfs/name/current/下的VERSION文件中的clusterID:
NameNode1:clusterID=CID-fee4dcb4-9615-42c0-bd46-d3b4acf02e61
NameNode2:clusterID=CID-d423e6c1-f45e-4e32-9a47-4272d69bcabc

同样,查看datanode下的VERSION文件:
/$HADOOP_HOME/tmp/dfs/data/current/目录下
DataNode1:clusterID=CID-d423e6c1-f45e-4e32-9a47-4272d69bcabc
DataNode2:clusterID=CID-fee4dcb4-9615-42c0-bd46-d3b4acf02e61
DataNode3:clusterID=CID-fee4dcb4-9615-42c0-bd46-d3b4acf02e61

很明显,我们发现,格式化之后,因为clusterID被赋予了新的值,导致hdfs无法将不是同一个clusterID的节点纳入该集群中,所以导致了如题的错误。

解决方法也很简单:(先关掉dfs相关进程)将集群中包含的所有NameNode和DataNode的ClusterID全部改成一样的值。

修改完成之后,启动hdfs,启动resourcemanager,完成后使用http://$namenode-ip:50070/网页查看运行状态,发现3个datanode节点正常启动,大功告成!

你可能感兴趣的:(ERROR:格式化hdfs后,datanode只启动了一个)