1.前言
网上的很多教程都是基于hadoop单机或者是伪分布式的,在HA集群的hadoop是有些不一样的;
所以写个hadoop-eclipse-plugin连接HA hadoop 集群的说明;
2.查看hadoop配置文件并配置DFS Master
查看hadoop/etc/hadoop下的配置文件;
hdfs-site.xml ----->找到dfs.namenode.rpc-address.hadoop-test.nn1;
dfs.namenode.rpc-address.hadoop-test.nn1
hadoop0:9000
RPC address for nomenode1 of hadoop-test
这里的hadoop-test是你的nameservice的名称;或者说是hadoop集群的此hdfs的路径前缀;
和core-site.xml中的fs.defaultFs相对应:
fs.defaultFS
hdfs://hadoop-test
在HA hadoop中,fs.defaultFs指的实际上是一个虚拟的hdfs路径;不用加端口号;
这里的hadoop0是hostname; 我们需要的是找到此hostname和端口号9000;
利用这个hostname和端口号填写到hadoop-Eclipse插件的DFS Master中;对应的host和post;
注意:此插件默认端口号是9000;如果hdfs-site.xml中的相应端口不是这个,最好改为9000,而不是用别的端口号;
好像使用别的端口号会发生错误;
3.查看hadoop配置文件并配置Map/Reduce(v2) Master
找到yarn-site.xml--->yarn.resourcemanager.scheduler.address
找到其对应的host与端口号;
The address of the scheduler interface.
yarn.resourcemanager.scheduler.address
${yarn.resourcemanager.hostname}:8030
${yarn.resourcemanager.hostname}
如同127.0.0.1
之后将对应的host与post填入Map/Reduce(v2) Master;
然后保存,转到Project Explorer,点击你新建的名称,这里是180;然后点击F5刷新下,就出出现hdfs的目录界面;
4.注意