用 Hive 算数据的时候 reduce 阶段卡在 99.99%
用 SparkStreaming 做实时算法时候,一直会有 executor 出现 OOM 的错误,但是其余的 executor 内存使用率却很低。
数据倾斜有一个关键因素是数据量大,可以达到千亿级。
以 Hadoop 和 Spark 是最常见的两个计算平台,下面就以这两个平台说明:
Hadoop 中直接贴近用户使用使用的时 Mapreduce 程序和 Hive 程序,虽说 Hive 最后也是用 MR 来执行(至少目前 Hive 内存计算并不普及),但是毕竟写的内容逻辑区别很大,一个是程序,一个是 Sql,因此这里稍作区分。
Hadoop 中的数据倾斜主要表现在 ruduce 阶段卡在 99.99%,一直 99.99% 不能结束。
这里如果详细的看日志或者和监控界面的话会发现:
有一个多几个 reduce 卡住
各种 container 报错 OOM
读写的数据量极大,至少远远超过其它正常的 reduce
伴随着数据倾斜,会出现任务被 kill 等各种诡异的表现。
经验: Hive 的数据倾斜,一般都发生在 Sql 中 Group 和 On 上,而且和数据逻辑绑定比较深。
Spark 中的数据倾斜也很常见,这里包括 Spark Streaming 和 Spark Sql,表现主要有下面几种:
Executor lost,OOM,Shuffle 过程出错
Driver OOM
单个 Executor 执行时间特别久,整体任务卡在某个阶段不能结束
正常运行的任务突然失败
补充一下,在 Spark streaming 程序中,数据倾斜更容易出现,特别是在程序中包含一些类似 sql 的 join、group 这种操作的时候。 因为 Spark Streaming 程序在运行的时候,我们一般不会分配特别多的内存,因此一旦在这个过程中出现一些数据倾斜,就十分容易造成 OOM。
1、数据倾斜产生的原因
我们以 Spark 和 Hive 的使用场景为例。他们在做数据运算的时候会设计到,countdistinct、group by、join 等操作,这些都会触发 Shuffle 动作,一旦触发,所有相同 key 的值就会拉到一个或几个节点上,就容易发生单点问题。
2、万恶的 shuffle
Shuffle 是一个能产生奇迹的地方,不管是在 Spark 还是 Hadoop 中,它们的作用都是至关重要的。那么在 Shuffle 如何产生了数据倾斜?
Hadoop 和 Spark 在 Shuffle 过程中产生数据倾斜的原理基本类似。如下图。
大部分数据倾斜的原理就类似于下图,很明了,因为数据分布不均匀,导致大量的数据分配到了一个节点。
数据往往和业务是强相关的,业务的场景直接影响到了数据的分布。再举一个例子,比如就说订单场景吧,我们在某一天在北京和上海两个城市多了强力的推广,结果可能是这两个城市的订单量增长了 10000%,其余城市的数据量不变。然后我们要统计不同城市的订单情况,这样,一做 group 操作,可能直接就数据倾斜了。
数据倾斜的产生是有一些讨论的,解决它们也是有一些讨论的,本章会先给出几个解决数据倾斜的思路,然后对 Hadoop 和 Spark 分别给出一些解决数据倾斜的方案。
1. 业务逻辑,我们从业务逻辑的层面上来优化数据倾斜,比如上面的例子,我们单独对这两个城市来做 count,最后和其它城市做整合。
2. 程序层面,比如说在 Hive 中,经常遇到 count(distinct)操作,这样会导致最终只有一个 reduce,我们可以先 group 再在外面包一层 count,就可以了。
3. 调参方面,Hadoop 和 Spark 都自带了很多的参数和机制来调节数据倾斜,合理利用它们就能解决大部分问题。
很多数据倾斜都是在数据的使用上造成的。我们举几个场景,并分别给出它们的解决方案。
数据分布不均匀:
前面提到的 “从数据角度来理解数据倾斜” 和 “从业务计角度来理解数据倾斜” 中的例子,其实都是数据分布不均匀的类型,这种情况和计算平台无关,我们能通过设计的角度尝试解决它。
有损的方法:
找到异常数据,比如 ip 为 0 的数据,过滤掉
无损的方法:
对分布不均匀的数据,单独计算
先对 key 做一层 hash,先将数据打散让它的并行度变大,再汇集
・数据预处理
列出来一些方法和思路,具体的参数和用法在官网看就行了。
1.mapjoin 方式
2.count distinct 的操作,先转成 group,再 count
3.hive.groupby.skewindata=true
4.left semi jioin 的使用
5. 设置 map 端输出、中间结果压缩。(不完全是解决数据倾斜的问题,但是减少了 IO 读写和网络传输,能提高很多效率)
列出来一些方法和思路,具体的参数和用法在官网看就行了。
1.mapjoin 方式
2. 设置 rdd 压缩
3. 合理设置 driver 的内存
4.Spark Sql 中的优化和 Hive 类似,可以参考 Hive
数据倾斜的坑还是很大的,如何处理数据倾斜是一个长期的过程,希望本文的一些思路能提供帮助。文中一些内容没有细讲,比如 Hive Sql 的优化,数据清洗中的各种坑,这些留待后面单独的分享,会有很多的内容。另外千亿级别的数据还会有更多的难点,不仅仅是数据倾斜的问题,这一点在后面也会有专门的分享。
转自:https://blog.csdn.net/qq_35315363/article/details/96502513