Eclipse+Maven构建Hadoop项目

在开发一些大型项目的时候,需要用到各种各样的开源包jar,为了方便管理及加载jar,使用maven开发项目可以节省大量时间且方便项目移动至新的开发环境。

开发环境

系统:MacOS 10.14.1

Hadoop:2.7.0

Java:1.8.0

Eclipse:4.6.2

Maven: 3.3.9

Maven安装

我使用的这个版本的Eclipse已经自带了Maven插件,不需要在自行安装,因此我也没有实际操作,本文就不介绍如何配置。

至于怎么知道自己使用的Eclipse是否自带有Maven,可以在Eclipse->Preference->Maven->Installations查看是否有Maven及版本号。或者直接新建项目查看是否有Maven选项。

构建Hadoop环境

创建Maven项目

打开Eclipse,File->new->project,选择Maven,然后下一步next

选择Creat a simple project,然后下一步next

输入Group id和artifact id。然后finish。

groupid和artifactId被统称为“坐标”是为了保证项目唯一性而提出的,如果你要把你项目弄到maven本地仓库去,你想要找到你的项目就必须根据这两个id去查找。

groupId一般分为多个段,这里我只说两段,第一段为域,第二段为公司名称。域又分为org、com、cn等等许多,其中org为非营利组织,com为商业组织。举个apache公司的tomcat项目例子:这个项目的groupId是org.apache,它的域是org(因为tomcat是非营利项目),公司名称是apache,artigactId是tomcat。

比如我创建一个项目,我一般会将groupId设置为cn.snowin,cn表示域为中国,snowin是我个人姓名缩写,artifactId设置为testProj,表示你这个项目的名称是testProj,依照这个设置,你的包结构最后是cn.snowin.testProj打头。(引自 链接 )

完成上述步骤后,就可以在Project Explorer中看到刚刚创建的Maven项目。

进群:697699179可以获取Java各类入门学习资料!

这是我的微信公众号【编程study】各位大佬有空可以关注下,每天更新Java学习方法,感谢!

学习中遇到问题有不明白的地方,推荐加小编Java学习群:697699179内有视频教程 ,直播课程 ,等学习资料,期待你的加入

增加Hadoop依赖

我使用的Hadoop 2.7版本,以下是我的POM配置文件

4.0.0practice.hadoopsimple-examples0.0.1-SNAPSHOTjarsimple-exampleshttp://maven.apache.orgUTF-8junitjunit4.12testorg.apache.hadoophadoop-common2.7.0org.apache.hadoophadoop-hdfs2.7.0org.apache.hadoophadoop-client2.7.0org.apache.mrunitmrunit1.1.0hadoop2testorg.apache.hadoophadoop-mapreduce-client-core2.7.0org.apache.hadoophadoop-yarn-api2.7.0org.apache.hadoophadoop-auth2.7.0org.apache.hadoophadoop-minicluster2.7.0testorg.apache.hadoophadoop-mapreduce-client-jobclient2.7.0provided

在Project Explorer中右键该项目,选择build project,Maven就会根据POM.xml配置文件下载所需要的jar包。

稍等一段时间后,就可以看到Maven Dependencies中已经下载好的jar包。

hadoop配置文件

运行 MapReduce 程序前,务必将 /usr/local/Cellar/hadoop/2.7.0/libexec/etc/hadoop 中将有修改过的配置文件(如伪分布式需要core-site.xml 和 hdfs-site.xml),以及log4j.properties复制到 src/main/resources/ 

MapReduce实例—WordCount

在 src/main/java/ 路径下,创建java文件,代码如下

importjava.io.IOException;importjava.util.StringTokenizer;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IntWritable;importorg.apache.hadoop.io.Text;importorg.apache.hadoop.mapreduce.Job;importorg.apache.hadoop.mapreduce.Mapper;importorg.apache.hadoop.mapreduce.Reducer;importorg.apache.hadoop.mapreduce.lib.input.FileInputFormat;importorg.apache.hadoop.mapreduce.lib.output.FileOutputFormat;importorg.apache.hadoop.util.GenericOptionsParser;publicclassWordCount{public staticclassTokenizerMapperextendsMapper{/**

* LongWritable, IntWritable, Text 均是 Hadoop 中实现的用于封装 Java

* 数据类型的类,这些类实现了WritableComparable接口,

* 都能够被串行化从而便于在分布式环境中进行数据交换,你可以将它们分别视为long,int,String 的替代品。

*/privatefinalstaticIntWritableone =newIntWritable(1);// 值为1privateTextword =newText();public void map(Objectkey,Textvalue,Contextcontext)throwsIOException,InterruptedException{StringTokenizeritr =newStringTokenizer(value.toString());// 对字符串进行切分while(itr.hasMoreTokens()) {word.set(itr.nextToken());context.write(word, one);  }}}public staticclassIntSumReducerextendsReducer{privateIntWritableresult =newIntWritable();public void reduce(Textkey,Iterable values,Contextcontext)throwsIOException,InterruptedException{int sum =0;for(IntWritableval: values) {sum +=val.get();}result.set(sum);context.write(key, result);}}public static void main(String[] args)throwsException{Configurationconf =newConfiguration();        conf.addResource("classpath:/hadoop/core-site.xml");        conf.addResource("classpath:/hadoop/hdfs-site.xml");        conf.addResource("classpath:/hadoop/mapred-site.xml");// String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();String[] otherArgs = {"/input","/output"};if(otherArgs.length !=2) {System.err.println("Usage: wordcount ");System.exit(2);}Jobjob =newJob(conf,"word count");job.setJarByClass(WordCount.class);job.setMapperClass(TokenizerMapper.class);job.setCombinerClass(IntSumReducer.class);job.setReducerClass(IntSumReducer.class);job.setOutputKeyClass(Text.class);job.setOutputValueClass(IntWritable.class);FileInputFormat.setInputDirRecursive(job,true);FileInputFormat.addInputPath(job,newPath(otherArgs[0]));FileOutputFormat.setOutputPath(job,newPath(otherArgs[1]));System.exit(job.waitForCompletion(true) ?0:1);}}

你可能感兴趣的:(Eclipse+Maven构建Hadoop项目)