hadoop 2.6 datanode启动不了解决方法

你是无意穿堂风 偏偏孤倨引山洪

原因前述

出现该问题的原因一般是:在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。

错误现象:

hadoop 2.6 datanode启动不了解决方法_第1张图片
1

(即没有启动数据节点 运行关于数据节点的指令有错误)


解决方法

节选日志如下:

java.io.IOException: Incompatible clusterIDs in /home/hadoop/tmp/dfs/data: namenode clusterID = CID-19f887ba-2e8d-4c7e-ae01-e38a30581693; datanode clusterID = CID-14aac0b3-3c32-45db-adb8-b5fc494eaa3d

从日志上看,加粗的部分说明了问题:
datanode的clusterID 和 namenode的clusterID 不匹配。

解决办法:

根据日志中的路径,cd /home/hadoop/tmp/dfs

能看到data和name两个文件夹,

将name/current下的VERSION中的clusterID复制到data/current下的VERSION中,覆盖掉原来的clusterID

让两个保持一致即可

伪分布式成功启动:

hadoop 2.6 datanode启动不了解决方法_第2张图片
1

(失败的话多试几次 一般肯定可以成功)

世界上所有的追求都是因为热爱
一枚爱编码 爱生活 爱分享的IT信徒
— hongXkeX

你可能感兴趣的:(hadoop 2.6 datanode启动不了解决方法)