hadoopHA(高可用)namenode节点配置故障自动转移失败

在配置ha高可用的配置中,按照网上博客教程配置hdfs的故障自动转移失败,

 

举例来说:bigdata1和bigdata2这两个namenode节点

  配置完成后,将bigdata1设置为active  bigdata2设置为standby

然后用kill -9  xxxx杀死bigdata1的进程,发现,bigdata2并没有自动转换成active,依然是standby

 

查看namenode节点状态命令:

[root@hadoop1 hadoop-2.5.0]# bin/hdfs haadmin -getServiceState nn1
active
[root@hadoop2 hadoop-2.5.0]# bin/hdfs haadmin -getServiceState nn2
standby 

 

 

 解决办法:

修改hdfs-site.xml中的配置文件,其中密钥的地址配错了,密钥地址应该改成自己对应的目录下,不能完全按照教程上的写,另外加上自动转移的配置(我登陆的用户使hadoop)更改后,关闭集群,重新启动,自动转移故障成功。



	dfs.ha.fencing.ssh.private-key-files
	/home/hadoop/.ssh/id_rsa





	dfs.ha.fencing.methods
	sshfence
	shell(/bin/true)   

hadoopHA(高可用)namenode节点配置故障自动转移失败_第1张图片

 

 

hadoopHA(高可用)namenode节点配置故障自动转移失败_第2张图片

你可能感兴趣的:(hadoopHA)