【Hadoop】执行start-dfs.sh启动hadoop集群时,datenode没有启动怎么办

执行start-dfs.sh后,datenode没有启动,很大一部分原因是因为在第一次格式化dfs后又重新执行了格式化命令(hdfs namenode -format),这时主节点namenode的clusterID会重新生成,而从节点datanode的clusterID 保持不变。

在主节点也就是namenode那个节点上的hdfs-site.xml文件下找到这两个文件路径【Hadoop】执行start-dfs.sh启动hadoop集群时,datenode没有启动怎么办_第1张图片

打开name目录中current下面的VERSION文件,然后用这个clusterID替换掉datanode节点上的data/current/VERSION里的clusterID

【Hadoop】执行start-dfs.sh启动hadoop集群时,datenode没有启动怎么办_第2张图片

参考http://t.csdnimg.cn/Gk4cg

你可能感兴趣的:(hadoop,大数据,分布式)