说明:该文章基于多篇博客整理而成,涉及的技术点已贴上链接。
1.数据倾斜是大数据中很常见的一个现象,一般针对数据倾斜我们都会对数据进行加盐或者repartition 等等,hive中的distribute by是控制在map端如何拆分数据给reduce端的。hive会根据distribute by后面列,根据reduce的个数进行数据分发,默认是采用hash算法。对于distribute by进行测试,一定要分配多reduce进行处理,否则无法看到distribute by的效果。
参考:https://blog.csdn.net/wanghai__/article/details/6448615?utm_medium=distribute.pc_relevant.none-task-blog-searchFromBaidu-3.not_use_machine_learn_pai&depth_1-utm_source=distribute.pc_relevant.none-task-blog-searchFromBaidu-3.not_use_machine_learn_pai
说明:Hive在执行MapReduce任务时经常会碰到数据倾斜的问题,表现为一个或者几个reduce节点运行很慢,延长了整个任务完成的时间,这是由于某些key的条数比其他key多很多,这些Key所在的reduce节点所处理的数据量比其他节点就大很多,从而导致某几个节点迟迟运行不完。
小表与大表Join时容易发生数据倾斜,表现为小表的数据量比较少但key却比较集中,导致分发到某一个或几个reduce上的数据比其他reduce多很多,造成数据倾斜。
优化方法:使用Map Join将小表装入内存,在map端完成join操作,这样就避免了reduce操作。有两种方法可以执行Map Join:
(1) 通过hint指定小表做MapJoin
select /*+ MAPJOIN(time_dim) */ count(*) from store_sales join time_dim on ss_sold_time_sk = t_time_sk;
(2) 通过配置参数自动做MapJoin
核心参数:
参数名称 | 默认值 | 说明 |
---|---|---|
hive.auto.convert.join | false | 是否将common join(reduce端join)转换成map join |
hive.mapjoin.smalltable.filesize | 25000000 | 判断为小表的输入文件大小阈值,默认25M |
因此,巧用MapJoin可以有效解决小表关联大表场景下的数据倾斜。
大表与大表Join时,当其中一张表的NULL值(或其他值)比较多时,容易导致这些相同值在reduce阶段集中在某一个或几个reduce上,发生数据倾斜问题。
优化方法:
(1) 将NULL值提取出来最后合并,这一部分只有map操作;非NULL值的数据分散到不同reduce上,不会出现某个reduce任务数据加工时间过长的情况,整体效率提升明显。这种方法由于有两次Table Scan会导致map增多。
SELECT a.user_Id,a.username,b.customer_id FROM user_info a LEFT JOIN customer_info b
ON a.user_id = b.user_id where a.user_id IS NOT NULL
UNION ALL
SELECT a.user_Id,a.username,NULL FROM user_info a WHERE a.user_id IS NULL
(2) 在Join时直接把NULL值打散成随机值来作为reduce的key值,不会出现某个reduce任务数据加工时间过长的情况,整体效率提升明显。这种方法解释计划只有一次map,效率一般优于第一种方法。
SELECT a.user_id,a.username,b.customer_id
FROM user_info a
LEFT JOIN customer_info b
ON
CASE WHEN a.user_id IS NULL THEN CONCAT ('dp_hive', RAND())
ELSE a.user_id
END = b.user_id;
Hive做group by查询,当遇到group by字段的某些值特别多的时候,会将相同值拉到同一个reduce任务进行聚合,也容易发生数据倾斜。
优化方法:
(1) 开启Map端聚合
参数设置:
参数名称 | 默认值 | 说明 |
---|---|---|
hive.map.aggr | true(Hive 0.3+) | 是否开启Map端聚合 |
hive.groupby.mapaggr.checkinterval | 100000 | 在Map端进行聚合操作的条目数目 |
(2) 有数据倾斜时进行负载均衡
参数设置:
参数名称 | 默认值 | 说明 |
---|---|---|
hive.groupby.skewindata | false | 当GROUP BY有数据倾斜时是否进行负载均衡 |
当设定hive.groupby.skewindata为true时,生成的查询计划会有两个MapReduce任务。在第一个MapReduce 中,map的输出结果集合会随机分布到 reduce 中, 每个 reduce 做部分聚合操作,这样处理之后,相同的 Group By Key 有可能分发到不同的 reduce 中,从而达到负载均衡的目的。在第二个 MapReduce 任务再根据第一步中处理的数据按照Group By Key分布到reduce中,(这一步中相同的key在同一个reduce中),最终生成聚合操作结果。
当在数据量比较大的情况下,由于COUNT DISTINCT操作是用一个reduce任务来完成,这一个reduce需要处理的数据量太大,就会导致整个job很难完成,这也可以归纳为一种数据倾斜。
优化方法:将COUNT DISTINCT使用先GROUP BY再COUNT的方式替换。例如:
select count(id) from (select id from bigtable group by id) a
因此,count distinct的优化本质上也是转成group by操作。
参考:https://blog.csdn.net/fanfan_gaolin/article/details/88576426