Hive常用优化方法

周末抽空搭建了一个10个节点的hadoop集群(CDH5.4.1)。

安装注意事项:做好各节点ssh等价,ntp时钟同步, 角色分配zookiper 最好独立磁盘个数为基数1,3,5  , 做好高可用active, hue最好添加hdfs fttpfs角色,以免主备切换时hue不可用。

用途: 因为有商用的集群要升级,所以准备一个备用的集群,备份数据。保障升级失败、磁盘崩溃后,结果表不丢失。

Hive常用优化方法_第1张图片




接下来就是 两套集群的数据同步, 是不是有点像oracle 的DG?  mysql的主从复制(异步)?


Hive常用优化方法_第2张图片


Hive常用优化方法_第3张图片

任意抽查一个表就是12亿条,3亿条,这样的表有8000个左右。 




Hive常用优化方法_第4张图片

总共14T*30个节点 。当然我们只迁移其中result库中的表, 源表不要, 就剩下不到4个T的  同步。










补充:

hive优化方法:

1、join连接时的优化:当三个或多个以上的表进行join操作时,如果每个on使用相同的字段连接时只会产生一个mapreduce。
2、join连接时的优化:当多个表进行查询时,从左到右表的大小顺序应该是从小到大。原因:hive在对每行记录操作时会把其他表先缓存起来,直到扫描最后的表进行计算
3、在where字句中增加分区过滤器。
4、当可以使用left semi join 语法时不要使用inner join,前者效率更高。原因:对于左表中指定的一条记录,一旦在右表中找到立即停止扫描。
5、如果所有表中有一张表足够小,则可置于内存中,这样在和其他表进行连接的时候就能完成匹配,省略掉reduce过程。设置属性即可实现,set hive.auto.covert.join=true; 用户可以配置希望被优化的小表的大小 set hive.mapjoin.smalltable.size=2500000; 如果需要使用这两个配置可置入$HOME/.hiverc文件中。
6、同一种数据的多种处理:从一个数据源产生的多个数据聚合,无需每次聚合都需要重新扫描一次。
例如:insert overwrite table student select * from employee; insert overwrite table person select * from employee;
可以优化成:from employee insert overwrite table student select * insert overwrite table person select *
7、limit调优:limit语句通常是执行整个语句后返回部分结果。set hive.limit.optimize.enable=true;
8、开启并发执行。某个job任务中可能包含众多的阶段,其中某些阶段没有依赖关系可以并发执行,开启并发执行后job任务可以更快的完成。设置属性:set hive.exec.parallel=true;
9、hive提供的严格模式,禁止3种情况下的查询模式。
a:当表为分区表时,where字句后没有分区字段和限制时,不允许执行。
b:当使用order by语句时,必须使用limit字段,因为order by 只会产生一个reduce任务。
c:限制笛卡尔积的查询。
10、合理的设置map和reduce数量。
11、jvm重用。可在hadoop的mapred-site.xml中设置jvm被重用的次数。



你可能感兴趣的:(Hive常用优化方法)