Hadoop启动的时候,发现Datanode启动不了,解决办法

(1)现象:

#jps

看不到DataNode


(2)可能原因:

datanode的clusterID 和 namenode的clusterID 不匹配。


(3)解决办法:

找到data和name配置的dir路径,找到hdfs-site.xml文件(cd hadoop-2.6.5/etc/hadoop/)







dfs.name.dir
/home/cc/hadoop/name



dfs.data.dir
/home/cc/hadoop/data



dfs.replication
2



进入配置的目录

cd /home/cc/hadoop/

能看到 data和name两个文件夹,

将name/current下的VERSION中的clusterID复制到data/current下的VERSION中,覆盖掉原来的clusterID

让两个保持一致。

#Tue Nov 07 00:37:37 EST 2017
storageID=DS-bab60b94-88d8-43e4-810e-337684f621e8
clusterID=CID-0fe4b1be-69ee-4894-b97a-7470fe3ff79d
cTime=0
datanodeUuid=4acb3c75-9dc5-4e70-a6dc-f2ac6b9f4ab6
storageType=DATA_NODE
layoutVersion=-56

然后重启Haddop,启动后执行jps,查看进程。

OK,DataNode已经出现!



你可能感兴趣的:(开发工具,深度学习)