hadoop开发之eclipse连接hdfs文件正常,运行程序却拒绝连接报错问题

eclipse可以连接显示hdfs文件,但运行程序时却提示拒绝连接

报错如下:
log4j:WARN No appenders could be found for logger (org.apache.hadoop.metrics2.lib.MutableMetricsFactory).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
Exception in thread “main” java.net.ConnectException: Call From master/192.168.131.134 to localhost:9000 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused ……….

如图:
hadoop开发之eclipse连接hdfs文件正常,运行程序却拒绝连接报错问题_第1张图片

原因:
hdfs的权限检测机制默认是打开的,未关闭的时候,不能使用eclipse插件对DFS上的文件进行操作,比如上传,删除等。

解决方案:
关闭hadoop集群环境,关闭HDFS服务。
进入到hadoop的安装目录下的/etc/hadoop文件夹下,去修改hdfs-site.xml文件,添加一个变量如下:

hadoop开发之eclipse连接hdfs文件正常,运行程序却拒绝连接报错问题_第2张图片

然后在重新启动hadoop集群环境,然后再去eclipse里面就可以对DFS下的文件进行增删查改的操作。

hadoop开发之eclipse连接hdfs文件正常,运行程序却拒绝连接报错问题_第3张图片


You got a dream, you gotta protect it.
如果你有梦想的话,就要去捍卫它 。 ——《当幸福来敲门》

你可能感兴趣的:(hadoop集群)