hadoop解决无法关闭问题:no namenode to stop/no datanode to stop

一、问题

今天在自己电脑上将启动了好多天的hadoop集群关闭的时候,报了一个之前没遇到过的错误。
关闭yarn集群的时候显示没有resourcemanager和nodemanager去停止,如下:

[hadoop@hadoop103 ~]$ stop-yarn.sh 
stopping yarn daemons
no resourcemanager to stop
hadoop104: no nodemanager to stop
hadoop102: no nodemanager to stop
hadoop103: no nodemanager to stop

但是集群是可以正常使用的,然后jps之后发现resourcemanager和nodemanager是启动着的,所以不明白他是为什么报这个错误。
然后用stop-dfs.sh和stop-all.sh命令也是一样的。

[hadoop@hadoop102 ~]$ stop-dfs.sh 
Stopping namenodes on [hadoop102]
hadoop102: no namenode to stop
hadoop104: no datanode to stop
hadoop103: no datanode to stop
hadoop102: no datanode to stop
[atguigu@hadoop102 ~]$ stop-all.sh 
This script is Deprecated. Instead use stop-dfs.sh and stop-yarn.sh
Stopping namenodes on [hadoop102]
hadoop102: no namenode to stop
hadoop103: no datanode to stop
hadoop104: no datanode to stop
hadoop102: no datanode to stop
Stopping secondary namenodes [hadoop104]
hadoop104: no secondarynamenode to stop
stopping yarn daemons
no resourcemanager to stop
hadoop103: no nodemanager to stop
hadoop102: no nodemanager to stop
hadoop104: no nodemanager to stop

二、原因

所以没遇到过上述这种问题,也不知道从哪解决,怎么办呢?当然是百度了,这还用想嘛!!
搜索了一下找到了原因:
Hadoop关闭也都是kill -9 pid,而hadoop默认pid的存放位置是/tmp,看到这我想大家应该都明白了吧,Linux中这个目录系统会定期清理的,所以我们用命令关集群的时候会提示no … to stop,因为系统也找不到pid了。

三、解决方法

解决方法:
以下修改文件均在$HADOOP_HOME/etc/hadoop目录下
1、NameNode,DataNode和SecondaryNameNode的pid存储位置
修改hadoop-env.sh文件

export HADOOP_PID_DIR=pid存储的位置,给个固定目录就可以
例如:
export HADOOP_PID_DIR=/opt/module/hadoop-2.7.2/pids

2、ResourceManager和NodeManager的pid存储位置
修改yarn-env.sh文件,没找到直接添加此配置

export YARN_PID_DIR=/opt/module/hadoop-2.7.2/pids

3、JobHistoryServer的pid存储位置
修改mapred-env.sh

export HADOOP_MAPRED_PID_DIR=/opt/module/hadoop-2.7.2/pids

记得将修改后的文件同步到其它节点,不然其它节点不会生效,然后重新启动集群就可以了。

你可能感兴趣的:(Hadoop,hadoop,big,data,hdfs)