RpcClient$FailedServerException的解决思路

   具体的错误信息如下:

org.apache.hadoop.hbase.client.RetriesExhaustedException: Failed after attempts=35, exceptions:
Mon Aug 25 12:00:40 CST 2014, org.apache.hadoop.hbase.client.RpcRetryingCaller@1a58c9e, java.net.ConnectException: Connection refused: no further information
Mon Aug 25 12:00:41 CST 2014, org.apache.hadoop.hbase.client.RpcRetryingCaller@1a58c9e, org.apache.hadoop.hbase.ipc.RpcClient$FailedServerException: This server is in the failed servers list: localhost/127.0.0.1:60020
Mon Aug 25 12:00:41 CST 2014, org.apache.hadoop.hbase.client.RpcRetryingCaller@1a58c9e, org.apache.hadoop.hbase.ipc.RpcClient$FailedServerException: This server is in the failed servers list: localhost/127.0.0.1:60020
Mon Aug 25 12:00:42 CST 2014, org.apache.hadoop.hbase.client.RpcRetryingCaller@1a58c9e, org.apache.hadoop.hbase.ipc.RpcClient$FailedServerException: This server is in the failed servers list: localhost/127.0.0.1:60020

  看到也有不少网友出现类似的问题,这里给出几种解决方案供大家参考:

  1. Hbase 绑定多网卡导致的:

  具体的解决办法可以参考http://www.netfoucs.com/article/uniquechao/84105.html以及http://www.tuicool.com/articles/quuURb这里就不累述了。

  2. zookeeper引起的,这种情况通常出现于hbase自身管理的zookeeper时,往往是你运行的一个进程正在操作hbase数据库的时候,hbase进程被杀掉或hbase服务被停掉所引起的,解决办法可以将hbase的zookeeper目录下的文件全都删除掉,然后再重启hbase服务就可以了。此外,请不要忘记配置zookeeper的的目录为属性hbase.zookeeper.property.dataDir。

 3. 这也是我所遇到情况,主要是由于/etc/hosts文件中的配置不正确造成的,需要注意的是首先在运行时必须知道当前运行hbase是的hostname是什么,以及其在hosts中对应的ip是多少,如果和自己需要的不符合,在修改后切勿忘记重新ssh一下,并确认/home/***/.ssh/kown_hosts中是否以及存在("***"为你运行hbase的用户名)。ok,这样问题应该可以解决了

 

你可能感兴趣的:(hbase)