作者:易文俊
Email:[email protected]
截止目前(2015-02-10)为止,hadoop最新版本为2.6.0,下面以hadoop2.6.0为例安装hadoop2.x的eclipse插件,hadoop2.x其它版本的eclipse插件类似
下载地址:https://github.com/winghc/hadoop2x-eclipse-plugin.git
点击按钮 Download ZIP得到hadoop2x-eclipse-plugin-master.zip
解压后的目录结构
源码位于src目录下,release目录下是针对特定的eclipse版本和Hadoop版本编译好的插件包,我们不使用已经编译好的插件包。
打开Windows的控制台cmd,进入解压后的根目录,然后进入src\contrib\eclipse-plugin,执行如下命令:
ant jar -Dversion=2.6.0 -Declipse.home=D:\Install\eclipse-x64 -Dhadoop.home=D:\Install\apache\hadoop-2.6.0
其中Dversion为要编译的插件版本,Declipse.home为eclipse安装目录,Dhadoop.home为Hadoop的安装目录,请根据自己的情况修改,执行后如下:
由于ant的依赖管理工具ivy需要下载所需的jar包,下载速度比较慢,请静静地等待下载并编译结束吧。
如果许久卡在没反应,请尝试按下回车键
经过少量的刷屏,终于编译成功!!!
编译好的插件在hadoop2x-eclipse-plugin-master\build\contrib\eclipse-plugin目录下,文件为hadoop-eclipse-plugin-2.6.0.jar
将hadoop-eclipse-plugin-2.6.0.jar文件拷贝到eclipse的plugins目录下,然后重启eclipse,我们发现多了一个Map/Reduce视图,如下:
如果没有出现,则点击菜单中的window->open perspective->other,找到Map/Reduce,点击ok即可
Map/Reduce的视图如下:
至此,hadoop2.6.0的eclipse插件安装成
以下操作假定你已经在某一环境搭建好了hadoop2.6.0集群环境(伪分布式或全分布式均可)
在Map/Reduce的视图的下方,找到Map/Reduce Locations,右击空白处,或者点击右上角的蓝色大象,弹出新建hadoop location的对话框,并做如下配置:
其中:
location name:随意取一个名字
map/reduce(v2)master下的:host和port为jobtracker所在的服务器的IP(或域名)和端口,对应于mapred-site.xml中的mareduce.jobtracker.http.address的值的IP和端口
DFS master下的:host和port为HDFS所在的服务器的IP(或域名)和端口,对应于core-site.xml中的fs.defaultFS的值的IP和端口
user name:请填写hadoop的用户,否则没有权限操作hdfs上的文件和目录
点击finish后,展开左侧的目录结构,这样就可以查看hdfs上的数据,如下:
选择某一节点右击可以下载、上传、删除hdfs上的文件和目录
至此hadoop2.6.0 eclipse插件配置完成
转载请注明出处