hive优化及参数配置

1、本质:MR的优化

2、列裁剪和分区裁剪:减少不必要的列和分区

列裁剪 hive.optimize.cp=true(默认值为真)
分区裁剪 hive.optimize.pruner=true(默认值为真)

3、使用不转MR任务的语句:a.select仅查询本表字段 b.where仅对本表字段做条件过滤

4、抓取策略 :Set hive.fetch.task.conversion=none/more;

5、开启本地模式:

开启 set hive.exec.mode.local.auto=true
加载文件最大值 hive.exec.mode.local.auto.inputbytes.max(默认128M,大于该值仍会以集群方式运行)

6、并行计算:

开启 set hive.exec.parallel=true;
一次SQL计算中并行执行job数的最大值 hive.exec.parallel.thread.numbe

7、严格模式,作用查询限制:a.对于分区表,必须添加where对于分区字段的条件过滤;b.order by语句必须包含limit输出限制;c.限制执行笛卡尔积的查询。

开启 set hive.mapred.mode=strict(默认非严格,nonstrict)

8、排序:Sort By(单reduce排序)+Distribute By(分区排序) 代替 Order By(全排序)

9、Join:

a.小表join大表(join左边的表会加载到内存);
b.尽可能使用相同的连接键(会转化为一个MapReduce作业)
c.在Map端完成Join(前提 需要的数据在 Map 的过程中可以访问到)

开启 set hive.auto.convert.join = true (对左表统计量进行mapjoin)
大表小表判断阈值 hive.mapjoin.smalltable.filesize (表大小小于该值会被加载到内存中运行)
是否忽略mapjoin hint hive.ignore.mapjoin.hint(默认true)
是否将多个mapjoin转化为一个mapjoin hive.auto.convert.join.noconditionaltask(默认true)
转化时表的最大值 hive.auto.convert.join.noconditionaltask.size

d.大表join大表:a.空key过滤(空key数据无效),b.空key转换(空key数据有效,给key赋一个随机值,负载均衡)

10、Map-Side聚合

开启 set hive.map.aggr=true
map端group by执行聚合时处理的多少行数据 hive.groupby.mapaggr.checkinterval(默认100000)
进行聚合的最小比例 hive.map.aggr.hash.min.reduction
map端聚合使用的内存的最大值 hive.map.aggr.hash.percentmemory
map端做聚合操作是hash表的最大可用内容 hive.map.aggr.hash.force.flush.memory.threshold(大于该值则会触发flush)
是否对GroupBy产生的数据倾斜做优化 hive.groupby.skewindata(默认false)

11、合并小文件

是否合并map输出文件 hive.merge.mapfiles=true
是否合并reduce输出文件 hive.merge.mapredfiles=true
合并文件的大小 hive.merge.size.per.task=25610001000

12、去重统计 :数据量大时,COUNT DISTINCT使用先GROUP BY再COUNT的方式替换

13、合理控制Hive中Map以及Reduce的数量
–Map数量相关的参数

每个map处理文件的最大值 mapred.max.split.size
每个map处理文件的最小值 mapred.min.split.size.per.node
一个机架上split的最小值 mapred.min.split.size.per.rack

–Reduce数量相关的参数

强制指定reduce任务的数量 mapred.reduce.tasks
每个reduce任务处理的数据量 hive.exec.reducers.bytes.per.reducer
每个任务最大的reduce数 hive.exec.reducers.max

14、JVM重用(适用于a.小文件个数过多,b.task个数过多)

设置 set mapred.job.reuse.jvm.num.tasks=n(n为task插槽个数)

缺点:设置开启之后,task插槽会一直占用资源,不论是否有task运行,直到所有的task即整个job全部执行完成时,才会释放所有的task插槽资源!

你可能感兴趣的:(hadoop)