Hive编程指南:调优

(1)使用explain
在查询语句前加上explain,可以帮助看hive如何将查询转化成mapreduce任务:

一个hive任务会包含有一个或多个stage(阶段),不同的stage间会存在着依赖关系,越复杂的查询通常将会引入越多的stage,耗费更长的时间,
一个stage可以是一个mapreduce任务,也可以是一个抽样的阶段,或者一个合并的阶段,还可以是一个limit阶段,默认情况下,hive会一次执行一个stage(阶段)

(2)explain extended
该语句可以产生更多的输出信息

(3)limit
输出限制

(4)join优化

在进行join操作的时候,需要清楚哪个表是最大的,并将最大的表放置在join语句的最右边,或者直接使用/* streamtable(table_name)*/ 显式指定

可以通过执行 map-side join 减少reduce过程,提高性能

A、Map端join的好处是可以提前过滤掉join中需要排除的大量数据,会减少数据的传输。
B、Reduce端做join是比较灵活,然后缺点是需要做大量数据传输、和整个shuffle过程都是耗时,
咱们尽量在,因为知道reduce中才做join即对数据进行筛选。
Reduce-side-join做join时, 尽量在map阶段过滤掉不需要的数据。
Reduce-side-join做join时,要考虑能不能高效的再map端做join。

(5)本地模式
hive可以通过本地模式在单台机器上处理所有的任务,对于小数据集,执行时间可以明显缩短

set hive.exec.mode.local.auto=true

(6)并行执行
如果某些stage并非完全依赖,可以并行执行,set hive.exec.parallel=true,就可以开启并发执行,但需要注意的是,这样会增加集群利用率

(7)严格模式
通过设置 set hive.mapred.mode=strict可以禁止3种类型的查询

1、对于分区表,必须指定分区字段进行查询,否则不允许执行

2、对于使用order by 语句的查询,必须使用limit 语句
因为order by 为了执行排序过程会将所有的结果数据分发到一个reducer中进行处理

3、限制笛卡尔积的查询

(8)调整mapper和reducer个数

4、虚拟列
hive提供了两种虚拟列:一种用于将要进行划分的输入文件名,另一种用于文件中的块内偏移量,当hive产生了非预期的或null的返回结果时,可以通过这些虚拟列诊断查询
。通过查询这些字段,用户可以查看到哪个文件甚至哪行数据导致出现问题

一、Hive下查看数据表信息的方法
方法1:查看表的字段信息
desc table_name;
方法2:查看表的字段信息及元数据存储路径
desc extended table_name;
方法3:查看表的字段信息及元数据存储路径
desc formatted table_name;

查看该表总容量大小,单位为G
1 } END { print SUM/(102410241024)}'

对于group by或distinct,设定 hive.groupby.skewindata=true -- 防止group by 过程出现倾斜

distinct 和group by 的效率执行

select distinct user_id from dmt.user_inv_par_info_mon;

select user_id from dmt.user_inv_par_info_mon group by user_id;

二者启动的reduce作业数不同,distinct只会启动一个,group by 若没有指定reduce个数,会根据数量的大小动态分配reduce个数。

1、查看所有函数
show functions;

2、查看函数用法
desc function extended concat;

3、lateral view explode() 实现行转列

你可能感兴趣的:(Hive编程指南:调优)