上面文章分别介绍了面对大量小文件时,可以通过SequenceFile的方法来减少启动map的数量。其实,还可以通过使用CombineFileInputFormat来减少map的数量。
由于网络上有不少介绍CombineFileInputFormat的文章,本文就不再赘述。这里推荐一篇文章:http://shiyanjun.cn/archives/299.html
根据这篇文章里提供的代码,可以很容易实现一个MapReduce Job来验证CombineFileInputFormat的功能。有一点提一下:
- 该代码CombineSmallfiles.java里面引用了一个Reducer类(org.shirdrn.kodz.inaction.hadoop.smallfiles.IdentityReducer),但他并没有将这个类贴出来。不过我们可以直接注释掉行“job.setReducerClass(IdentityReducer.class);”,因为通过Reducer的名字IdentityReducer可以看出该Reducer其实只是忠实地把输入转成了输出,并没有做其他的事情。其实,作者在评论里面也提供了他遗失代码的repository,但我没试过。
实验:用CombineFileInputFormat在MapReduce Job中处理作为输入的多个小文件
实验中的MapReudce的input为几个小文件:
执行结果里显示MapReduce job只启动了一个Map:
简单总结一下:通过使用CombineFileInputFormat的确可以来减少map的数量,但它并不能减少NameNode的压力——因为HDFS上还是存在同样数目的小文件。另外,感觉CombineFileInputFormat的概念和实现也不算太straightforward。