多次进行hdfs namenode -format命令时,启动DataNode自动死亡的原因

1.安装环境,三个节点,在配置的时候不小心忘记配置slaves节点,导致,进行2次 namenode -format

2.进行start-dfs.sh命令时,发现主节点可以启动,但是其他两个从节点,启动以后,立刻死亡yarn是可以正常启动的,所以定位,问题应该是出在hdfs的格式化问题上

3.原因是我们每次格式化的时候,会产生这个文件夹/tmp/hadoop-hadoop/

4.我们可以将这个文件夹删除,这里注意!!每个节点上都要删除

5.我们使用命令:$ bin/hdfs namenode -format,从新进行格式化,会发现,所有的节点上又会产生这个文件夹:/tmp/hadoop-hadoop/

6.这是我们:start-dfs.sh启动,其他结点DataNode正常启动。

你可能感兴趣的:(大数据,数据库,linux,hadoop,hadoop)