Hadoop — 使用Eclipse编译运行MapReduce程序(Hadoop2.6.0)

#前期准备


1、eclipse (eclipse-java-mars-1-linux-gtk-x86_64.tar.gz)密码: 6awv

2.、eclipse-plugin (hadoop-eclipse-plugin-2.6.0.jar密码: geq4

3、将hadoop-eclipse-plugin-2.6.0.jar 拷贝到 eclipse的plugin中



#配置hadoop-eclipse-plugin


1、选择 Window 菜单下的 Preference

在 Hadoop installation directory 下填写 hadoop 的安装目录



2、切换 Map/Reduce 工作目录,选择 Window 菜单下选择 Open Perspective -> Other


                                          


 切换工作空间


               





3、建立与 Hadoop 集群的连接,点击 Eclipse软件右下角的 Map/Reduce Locations 面板,在面板中单击右键,选择 New Hadoop Location。




在弹出来的 General 选项面板中进行 Master 的设置,设置要要 Hadoop 的配置一致,请读Linux(Ubuntu15.04)下安装`配置Hadoop(2.6.0)Location Name 随意填写,Map/Reduce Master 的 Host 填本机的IP(或者 localhost ),Port 默认就是 50020,DFS Master Post 为 9000。

最后的设置如下:


Hadoop — 使用Eclipse编译运行MapReduce程序(Hadoop2.6.0)_第1张图片


Advanced parameters 选项面板,这边有详细的配置,同样要与 Hadoop 的配置(/usr/local/hadoop/etc/hadoop中的配置文件)一致,如果打不开该面板,则可以不设置,本机打不开,则没有设置。(这个我猜是动态地和Hadoop配置文件同步)


#在eclipse 中查看 HDFS  中的内容


注意:当HDFS 内容变化之后 eclipse不会同步刷新 需要自己 refresh


Hadoop — 使用Eclipse编译运行MapReduce程序(Hadoop2.6.0)_第2张图片


#在eclipse中创建MapReduce 工程(于正常创建java程序相似)


1、点击 File 菜单,选择 New -> Project、选择 Map/Reduce Project,点击 Next。


Hadoop — 使用Eclipse编译运行MapReduce程序(Hadoop2.6.0)_第3张图片


2、填写 Project name




3、创建的 WordCount 项目(代码

需要填写两个地方:在 Package 处填写 org.apache.hadoop.examples;在 Name 处填写 WordCount


Hadoop — 使用Eclipse编译运行MapReduce程序(Hadoop2.6.0)_第4张图片


4、在左侧的 Project Explorer 就能看到刚才建立的项目

注意:如果没有复制 core-site.xml 和 hdfs-site.xml ,程序将无法运行,会提示 Input 路径不存在(实际读取的是当前目录而非 HDFS 目录)。log4j.properties 这个配置文件,如果没有,虽然不影响程序的正确运行,但程序运行时无法看到任何提示消息(只能看到出错信息)。


Hadoop — 使用Eclipse编译运行MapReduce程序(Hadoop2.6.0)_第5张图片


#通过 eclipse 运行 MR 程序


1、Run As -> Run Configurations,在此处可以设置运行时的相关参数


Hadoop — 使用Eclipse编译运行MapReduce程序(Hadoop2.6.0)_第6张图片


2、选择 Run As -> Run on Hadoop


Hadoop — 使用Eclipse编译运行MapReduce程序(Hadoop2.6.0)_第7张图片


#需要注意的问题


HDFS 中 文件 权限 问题 :


我是这样解决的(777 -> 权限给的很大 )说明确实 是 权限问题。







你可能感兴趣的:(eclipse,mapreduce,hadoop,安装)