首先我们需要安装Hadoop,并对Hadoop进行配置。这里我们就不赘述了,详情看这篇博客:Hadoop安装配置
值得注意的是,配置的时候,需要给Hadoop权限才能正确执行。最简单的办法就是讲hadoop以及其目录下所有文件都归在一个组中。
chown -R hadoop:hadoop hadoop文件夹
就可以了。
配置完成之后,我们我们还需要什么?
1.需要在HDFS中保存有文件。
2.需要一个程序jar包,我们前面说过,JobTracker接收jar包就会分解job为mapTask和reduceTask。mapTask会读取HDFS中的文件来执行。
我们来看目标。
我们输入两个文件,file1和file2。交给hadoop执行之后,会返回file1和file2文件中的单词的计数。
我们说过,hadoop返回的是
所以结果如下:也就是把单词以及单词的个数返回
school 1
hello 3
world 2
...
所以我们首先创建两个文件:
file1和file2。
随便填点东西在里面,文件中的内容是用来计数。单词之间用空格分隔,当然这是不一定的,如何区分单词是在后面jar包中的map程序中分辨的。
我们写好了这两个文件之后,要将文件提交到HDFS中。如何提交呢?
提交之前,首先要确保hadoop已经运行起来了,查看jps可以看到hadoop的进程。
首先我们在hadoop的HDFS中创建一个文件夹。
hdfs dfs -mkdir input_wordcount
这样就可以在HDFS根目录下创建一个input_wordcount的文件夹。
其实Hadoop的HDFS命令行非常接近Shell,只需要使用hdfs dfs -后面写上shell命令就可以对应执操作HDFS文件系统了。
例如:hdfs dfs -ls查看根目录下的文件。
创建文件夹之后,我们就可以提交我们写的两个file文件。
hdfs dfs -put input/* input_wordcount
这里我两个file文件都放在input目录下,所以直接使用正则表达式都提交上去即可,提交到input_wordcount文件夹下。然后我们查看input_wordcount文件夹下的文件,查看是否提交完成。
hdfs dfs -ls input_wordcount
Found 4 items
-rw-r--r-- 3 haoye supergroup 71 2017-05-06 20:34 input_wordcount/file1
-rw-r--r-- 3 haoye supergroup 0 2017-05-06 20:34 input_wordcount/file1~
-rw-r--r-- 3 haoye supergroup 74 2017-05-06 20:34 input_wordcount/file2
-rw-r--r-- 3 haoye supergroup 0 2017-05-06 20:34 input_wordcount/file2~
提交成功了。
第一个要求完成了,接下来我们就需要一个程序jar包。
打开IDE工具。创建一个java程序,我在这里创建一个maven项目。
首先我们需要导入依赖包:
org.apache.hadoop
hadoop-common
2.6.0
org.apache.hadoop
hadoop-mapreduce-client-core
2.6.0
然后我们创建一个WordCount类。
在这个类里,首先我们要创建一个Map方法,需要继承Mapper类:
public static class WordCountMap extends
Mapper {
private final IntWritable one = new IntWritable(1);
private Text word = new Text();
public void map(LongWritable key, Text value, Context context)
throws IOException, InterruptedException {
String line = value.toString();
StringTokenizer token = new StringTokenizer(line);
while (token.hasMoreTokens()) {
word.set(token.nextToken());
context.write(word, one);
}
}
}
Mapper前面两个类参数是输入,后面两个是输出。
也就是WordCOuntMap方法接收LongWritable,Text的参数,返回
需要重写map方法,可以看到Context对象即为返回结果,内部其实是
这里需要注意的是,value的值,value默认是一行数据,你文件中有多少行,map函数就会被调用多少次。
这我们就看懂了吧,首先拿到一行的数据,使用StringTokenizer根据空格分割字符串,得到token。遍历token并写入context中返回即可。
然后我们需要编写reduce方法:同样的,reduce方法继承reduce类。
public static class WordCountReduce extends
Reducer {
public void reduce(Text key, Iterable values,
Context context) throws IOException, InterruptedException {
int sum = 0;
for (IntWritable val : values) {
sum += val.get();
}
context.write(key, new IntWritable(sum));
}
}
wordCountReduce方法接收其中最重要是重写reduce方法,同样的context也是返回的结果。
这里需要注意的是,reduce方法是什么时候调用的呢?是在所有mapTask都被执行完成之后,reduceTask启动了才调用。
所有reduce方法中接收到的是所有map返回的参数。所以我们简单的求和写入context中就可以了。
最后我们编写main方法作为入口,调用两个函数。
public static void main(String[] args) throws Exception {
Configuration conf = new Configuration();
Job job = new Job(conf);
job.setJarByClass(WordCount.class);
job.setJobName("wordcount");
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
job.setMapperClass(WordCountMap.class);
job.setReducerClass(WordCountReduce.class);
job.setInputFormatClass(TextInputFormat.class);
job.setOutputFormatClass(TextOutputFormat.class);
FileInputFormat.addInputPath(job, new Path(args[0]));
FileOutputFormat.setOutputPath(job, new Path(args[1]));
job.waitForCompletion(true);
}
这里我们主要是告诉JobTracker,告诉他去调用什么就可以了。
类都编写好了之后`,我们需要的是jar包,所以我们将程序打包为jar包。
拿到jar包之后,我们需要将jar包作为作业提交给Hadoop执行。怎么做呢?
hadoop jar WordCount.jar WordCount input_wordcount output_wordcount
hadoop jar WordCount.jar WordCount这里提交jar包,并且告诉主类在哪。
执行完成之后可以看到。
hdfs dfs -ls
Found 2 items
drwxr-xr-x - haoye supergroup 0 2017-05-06 20:34 input_wordcount
drwxr-xr-x - haoye supergroup 0 2017-05-06 20:40 output_wordcount
hdfs dfs -ls output_wordcount
Found 2 items
-rw-r--r-- 3 haoye supergroup 0 2017-05-06 20:40 output_wordcount/_SUCCESS
-rw-r--r-- 3 haoye supergroup 83 2017-05-06 20:40 output_wordcount/part-r-00000
其中part-r-00000为结果文件。
我们可以查看它的内容
hdfs dfs -cat output_wordcount/part-r-00000
api 1
file 3
free 2
hadoop 7
hello 3
home 1
java 2
new 2
school 1
system 1
world 2
得到结果了吧。
对于hadoop来说,执行任务需要操作HDFS,需要job对应的jar包。而jar包中需要编写mapTask和ReduceTask对应的方法。交给jobTracker执行就可以了。十分的方便。