Hadoop:Call From wish/192.168.11.1 to wish:9000 failed on connection exception:java.net.ConnectExcep

问题:今天用eclipse连接hadoop hdfs时,配置Map/Reduce (V2) master , DFS master时出现以下报错信息:

解决办法:

1、打开Eclipse,依次点击“Window”→“Preferences”→“Hadoop Map/Reduce”,Hadoop installation directory配置为hadoop-2.6.5.rar压缩包解压目录

Hadoop:Call From wish/192.168.11.1 to wish:9000 failed on connection exception:java.net.ConnectExcep_第1张图片

注意,若在Preferences中找不到Hadoop Map/Reduce,则cd到Eclipse安装目录,执行./eclipse -clean,然后重启Eclipse

2、依次点击“Window”→“Show View”→“Other…”→“MapReduce Tools”→“Map/Reduce Locations

3、在“Map/Reduce Locations”视图中右键“New Hadoop location…”,新建连接

 Hadoop:Call From wish/192.168.11.1 to wish:9000 failed on connection exception:java.net.ConnectExcep_第2张图片

4、弹出如下窗口,这个是初始界面。

Hadoop:Call From wish/192.168.11.1 to wish:9000 failed on connection exception:java.net.ConnectExcep_第3张图片

5、下面我讲解这些配置如何填写
Location name
     可以任意填写
Map/Reduce(V2) Master Host
方法一:填写远程Hadoop所在虚拟机的IP地址,比如我的是192.168.11.1
方法二:直接填入其主机名(比如我的是master),要在相关文件中进行配置:进入目录C:\Windows\System32\drivers\etc找到hosts文件,打开后加入IP地址与主机名的映射,如下图所示

Port(划重点!我在这里掉进过很多坑!)
将远程集群的Hadoop安装目录下**/hadoop/hadoop-2.6.5/etc/hadoop/目录下的core-site.xml**、hdfs-site.xmlmapred-site.xml、slaves和yarn-site.xml等5个文件通过Xftp等SFTP文件传输软件将五个文件复制,并在本机的(Windows系统)中Hadoop安装目录下的**\hadoop-2.6.5\etc\hadoop**目录中使用以上5个文件覆盖原文件
对于5个文件如何配置,强烈建议阅读多台Linux虚拟机Hadoop集群的安装与部署(超详细版)
打开复制的yarn-site.xml文件,找到变量名为yarn.resourcemanager.address的变量值,我的文件的变量值为master:8032

将该变量值中的端口号填入Map/Reduce(V2) MasterPort中,我需要填入的值为8032
DFS Master Port
打开复制的core-site.xml文件,找到变量名为fs.defaultFS的变量值,我的文件的变量值为hdfs://master:9000

将该变量值中的端口号填入DFS MasterPort中,我需要填入的值为9000

6、core-site.xml配置

Hadoop:Call From wish/192.168.11.1 to wish:9000 failed on connection exception:java.net.ConnectExcep_第4张图片

7、 yarn-site.xml配置

Hadoop:Call From wish/192.168.11.1 to wish:9000 failed on connection exception:java.net.ConnectExcep_第5张图片

8、运行结果:

Hadoop:Call From wish/192.168.11.1 to wish:9000 failed on connection exception:java.net.ConnectExcep_第6张图片 

你可能感兴趣的:(hadoop)