hadoop起动后没有datanode的问题

https://blog.csdn.net/u012500868/article/details/78164572

https://blog.csdn.net/hzdxw/article/details/51960211

解决办法一:

根据日志中的路径,cd /home/storm/hadoop/tmp/dfs,能看到 data和name两个文件夹, 将name/current下的VERSION中的clusterID复制到data/current下的VERSION中,覆盖掉原来的clusterID。 让两个保持一致,然后重启,启动后执行jps,查看进程: 20131 SecondaryNameNode 20449 NodeManager 19776 NameNode 21123 Jps 19918 DataNode 20305 ResourceManager

解决办法二:

直接删除掉dfs文件夹中name和data文件夹里的所有内容,重启。

出现该问题的原因:

在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。

--------------------- 本文来自 GXU-数据与网络实验室 的CSDN 博客 ,全文地址请点击:https://blog.csdn.net/u012500868/article/details/78164572?utm_source=copy

 

hadoop namenode -format     不能随便执行

 

你可能感兴趣的:(笔记,Hadoop)