MapReduce经典案例-数据去重

1.数据去重介绍=

数据去重主要是为了掌握利用并行化思想来对数据进行有意义的筛选,数据去重指去除重复数据的操作。在大数据开发中,统计大数据集上的多种数据指标,这些复杂的任务数据都会涉及数据去重。

2.案例需求及分析

(1) 分析是否可以使用MapReduce处理此需求。

(2)如何处理此需求,Map阶段?Reduce阶段?是否需要加Combine

(3)代码实现,映射关系如何转换

文件file1.txt本身包含重复数据,并且与file2.txt同样出现重复数据,现要求使用Hadoop大数据相关技术对以上两个文件进行去重操作,并最终将结果汇总到一个文件中。

(1) 编写MapReduce程序,在Map阶段采用Hadoop默认作业输入方式后,将key设置为需要去重的数据,而输出的value可以任意设置为空。

(2) Reduce阶段,不需要考虑每一个key有多少个value,可以直接将输入的key复制为输出的key,而输出的value可以任意设置为空,这样就会使用MapReduce默认机制对key(也就是文件中的每行内容)自动去重。

Map阶段是实现

使用Eclipse开发工具打开之前创建的Maven项目HadoopDemo,并且新创建cn.itcast.mr.dedup包,在该路径下编写自定义MapperDedupMapper,主要用于读取数据集文件将TextInputFormat默认组件解析的类似<02018-3-1 a >键值对修改为<2018-3-1 anull>

Reduce阶段实现

根据Map阶段的输出结果形式,同样在cn.itcast.mr.dedup包下,自定义ReducerDedupReducer,主要用于接受Map阶段传递来的数据,根据Shuffle工作原理,键值key相同的数据就会被合并,因此输出数据就不会出现重复数据了。

3.Driver程序主类实现

编写MapReduce程序运行主类DedupDriver,主要用于设置MapReduce工作任务的相关参数。由于本次演示的数据量较小,为了方便、快速地进行案例演示,本案例采用了本地运行模式,对指定的本地D:\\Dedup\\input目录下的源文件(需要提前准备)实现数据去重,并将结果输入到本地D:\\Dedup\\output目录下。

4.效果测试

为了保证MapReduce程序正常执行,需要先在本地D:\\Dedup\\input目录下创建文件file1.txtfile2.txt;然后,执行MapReduce程序的程序入口DedupDriver类,正常执行完成后,在指定的D:\\Dedup\\output目录下生成结果文件。

你可能感兴趣的:(mapreduce,hadoop,大数据)