MapReduce并行编程模型

一、课前准备

1. 3节点hadoop集群

2. 安装IDEA

3. 安装maven并配置环境变量

二、课堂主题

1.  围绕MapReduce分布式计算讲解

三、课堂目标

1. 理解MapReduce编程模型

2. 独立完成一个MapReduce程序并运行成功

3. 了解MapReduce工程流程

4. 掌握并描述出shuffle全过程(面试)

5. 理解并解决数据倾斜

四、知识要点

1. MapReduce编程模型

  • MapReduce是采用一种分而治之的思想设计出来的分布式计算框架
  • 如一复杂或计算量大的任务,单台服务器无法胜任时,可将此大任务切分成一个个小的任务,

    小任务分别在不同的服务器上并行的执行,最终再汇总每个小任务的结果

  • MapReduce由两个阶段组成:Map阶段(切分成一个个小的任务)、Reduce阶段(汇总成小任务的结果)

MapReduce并行编程模型_第1张图片

 

 

MapReduce并行编程模型_第2张图片

 

 

1.1 Map阶段

  • map()函数的输入是kv对,输出是一些列kv对,输出写入本地磁盘。

1.2 Reduce阶段

  • reduce()函数的输入是kv对(即map的输出(kv对));输出是一些列kv对,最终写入HDFS

1.3 Main程序入口

2. MapReduce编程示例

  •  以词频统计为例:统计一批英文文章当中,各个单词出现的总次数

2.1 MapReduce原理图

MapReduce并行编程模型_第3张图片

 

 

 

2.2 MR参考代码

2.2.1 Mapper代码

 

  • block对应一个分片splist,一个split对应一个map task
  • reduce task的个数由程序中编程指定

 

3. WEB UI 查看结果

3.1 Yarn

浏览器url地址: rm 节点IP:8088

3.2 HDFS结果

 

4. Combiner

MapReduce并行编程模型_第4张图片

 

 

  • map端本地聚合;不论运行多少次Combiner操作,都不会影响最终的结果
  • 并非所有的mr都适合combiner操作,比如求平均值
  • WorldCountMap与WorkCountReduce代码不变
  • WordCountMain中,增加job.setCombinerClass(WorldCountReduce.class)
  • 详见工程代码

5. Shuffle

MapReduce并行编程模型_第5张图片

 

 

MapReduce并行编程模型_第6张图片

 map task 向环形缓冲区写

环形缓冲区 100M,当使用达到80%,会溢出写磁盘文件(将环形缓冲区文件写入到磁盘中)

 写的过程: 分区、排序(combine、压缩 、num>=3)

     分区:默认HashPartition =>getPartition()方法,

        (key.hashCode()&Integer.MAX_VALUE) % numReduceTasks 

    排序:每个分区内排序,根据key排序,

最后将多个小的分区文件合并成一个大的分区文件(仍然是排序的)

 

6. 自定义分区Partition

  •  MapReduce自带的分区器是HashPartitioner
  • 原理:先对map输出的key求hash值,再模上reduce task个数,根据结果,

    决定此输出kv对,被匹配的reduce取走

 

6.1 默认分区

  • 读取文件customPartition.txt,内容如下:

 

  • 默认HashPartitioner分区时,查看结果(看代码)

  按照字典排序

 

6.2 自定义分区

现开户自定义分区功能,并设定reduce个数为4

详见工程代码

(就是,给一个key,操作key,返回一个数值型,即对应的分区number)

 

 

7. 二次排序

  •  MapReduce中,根据key进行分区、排序、分组
  • MapReduce会根据基本类型对应的key进行排序,如int类型的IntWritable,默认升序排序
  • 为什么要自定义排序规则?
  • 现有需求,需要自定义key类型,并自定义key的排序规则,如按照人的salary降序排序,

    若相同,则再按age升序排序;若salary,age相同,则放入同一组

 

详见工程代码

 

 

 

8. MapReduce分区倾斜

 什么是数据倾斜?

数据中不可避免地会出现离群值(outlier),并导致数据倾斜。这些离群值会显著地拖慢MapReduce的执行。

常见的数据倾斜有以下几类:

1 数据频率倾斜  某一个区域的数据量要远远大于其他区域。比如某一个key对应的键值对远远大于其他键的键值对

2 数据大小倾斜  部分几类的大小远远大于平均值

在map端好reduce端都有可能发生数据倾斜。在reduce端的数据倾斜常常来源于MapReduce的默认分区器。

数据倾斜会导致map和reduce的任务执行时间大为延长,也会让需要缓存数据集的操作消耗更多的内存资源。

8.1  如何诊断是否存在数据倾斜

1. 关注由map的输出数据中的数据频率倾斜的问题。

2. 如何诊断map输出中哪些键存在数据倾斜?

  在reduce方法中加入记录map输出键的详细情况的功能

  发现倾斜数据之后,有必要诊断造成数据倾斜的那些键。有一个简便方法就是在代码里实现追踪每个键的

最大值。为了减少追踪量,可以设置数据量阈值,只追踪那些数据量大于阈值的键,并输出到日志中,

实现代码如下:

 

运行作业后就可以从日志中判断发生倾斜的键以及倾斜程序;跟踪倾斜数据是了解数据的重要一步,也是设计MapReduce

作业的重要基础

8.2 减缓Reduce数据倾斜

1 Reduce数据倾斜一般是指map的输出数据中存在数据频率倾斜的状况,即部分输出键的数据量远远大于其他的输出键

2. 如何减小reduce端数据倾斜的性能损失?常用方式有:

  1.  自定义分区

  基于输出键的北京知识进行自定义分区。例如,如果map输出键的单词来源于一本书。其中大部分必然是省略次(stopword)。

  那么就可以将自定义分区将这部分省略词发送给固定的一部分reduce实例。而将其他的都发给剩余的reduce实例。

  2. Combine

  使用Combine可以大量地减少数据频率倾斜和数据大小倾斜。在可能的情况下,combine的目的就是聚合并精简数据。

  3. 抽样和范围分区

  Hadoop默认的分区器是HashPartitioner,基于map端输出键的哈希值分区。这仅在数据分布比较均匀时比较好。

  在有数据倾斜时就很有问题。

  使用分区器需要首先了解数据的特性。TotalOrderPartitioner中,可以通过对原始数据进行抽样得到的结果集来预设分区边界值。

  TotalOrderPartitioner中的范围分区器可以通过预设的分区边界值进行分区。

  因此它也可以很好地用在矫正数据中的部分键的数据倾斜问题。

  4. 数据大小倾斜的自定义策略

  在map端或reduce端的数据大小倾斜都会对缓存造成较大的影响,乃至导致OutOfMemoryError异常。

  处理这种情况并不容易。可以参考以下方法。

  设置mapreduce.input.linerecordreader.line.maxlength来限制RecordReader读取的最大长度。

  RecordReader在TextInputFormat和KeyValueTextInputFormat类中使用。默认长度没有上限。

 

  

 五、拓展点

1. 全排序、防止数据倾斜

  

 

你可能感兴趣的:(MapReduce并行编程模型)