MapReduce 工作机制详解(三)Shuffle 机制

Shuffle 机制

MapReduce 工作机制详解(三)Shuffle 机制_第1张图片

map 阶段处理的数据如何传递给 e reduce 阶段,是 MapReduce 框架中最关键的一个流程,这个流程就叫 shuffle。

shuffle: 洗牌、发牌——(核心机制:数据分区,排序,合并)。

shuffle 是 Mapreduce 的核心,它分布在 Mapreduce 的 map 阶段和 reduce阶段。一般把从 p Map 产生输出开始到 e Reduce 取得数据 作为输入 之前 的过程 称作 作 shuffle。

  • Collect 阶段:将 MapTask 的结果输出到默认大小为 100M 的环形缓冲区,保存的是 key/value,Partition 分区信息等。

  • Spill 阶段:当内存中的数据量达到一定的阀值的时候,就会将数据写
    入本地磁盘,在将数据写入磁盘之前需要对数据进行一次排序的操作,如果配置了 combiner,还会将有相同分区号和 key 的数据进行排序。

  • Merge 阶段:把所有溢出的临时文件进行一次合并操作,以确保一个
    MapTask 最终只产生一个中间数据文件。

  • Copy 阶段: ReduceTask 启动 Fetcher 线程到已经完成 MapTask 的节点上复制一份属于自己的数据,这些数据默认会保存在内存的缓冲区中,当内存的缓冲区达到一定的阀值的时候,就会将数据写到磁盘之上。

  • Merge 阶段:在 ReduceTask 远程复制数据的同时,会在后台开启两个线程对内存到本地的数据文件进行合并操作。

  • Sort 阶段:在对数据进行合并的同时,会进行排序操作,由于MapTask阶段已经对数据进行了局部的排序,ReduceTask 只需保证 Copy 的数据的最终整体有效性即可。

Shuffle 中的缓冲区大小会影响到 mapreduce 程序的执行效率,原则上说,缓冲区越大,磁盘 io 的次数越少,执行速度就越快。
缓冲区的大小可以通过参数调整, 参数:io.sort.mb 默认 100M

喜欢就点赞评论+关注吧

MapReduce 工作机制详解(三)Shuffle 机制_第2张图片

感谢阅读,希望能帮助到大家,谢谢大家的支持!

你可能感兴趣的:(hadoop,mapreduce)