1. Hive set命令。
2. 命令行选择 -hiveconf
3. hive-site.xml
4. hive-default.xml
5. hadoop-site.xml(或者是core-site.xml hdfs-site.xml mapred-site.xml)
6. hadoop-default.xml(或者是core-default.xml hdfs-default.xml mapred-default.xml)。
7. hive的日志信息存放在 /tmp/$USER/hive.log,出错时hadoop的mapred task logs也可以查看,本环境在/tmp/nslab下查看。
命令:hive -hiveconf hive.root.logger=DEBUG,console 将调试信息打印到控制台。
使用set的使用
1. 使用set查看设置的值:
set hive.enforce.bucketing
2. 只输入一个set,会列出所有的设置。
3. 设置新的属性,格式类似下面:
set hive.enforce.bucketing=true;
hive.exec.dynamic.partition
是否打开动态分区。
默认:false
hive.exec.dynamic.partition.mode
打开动态分区后,动态分区的模式,有 strict 和 nonstrict 两个值可选,strict 要求至少包含一个静态分区列,nonstrict 则无此要求。
默认:strict
hive.exec.max.dynamic.partitions
所允许的最大的动态分区的个数。
默认:1000
hive.exec.max.dynamic.partitions.pernode
单个 reduce 结点所允许的最大的动态分区的个数。
默认:100
hive.exec.default.partition.name
默认的动态分区的名称,当动态分区列为''或者null时,使用此名称。''
set hive.cli.print.header=true; // 打印列名
set hive.cli.print.row.to.vertical=true; // 开启行转列功能, 前提必须开启打印列名功能
set hive.cli.print.row.to.vertical.num=1; // 设置每行显示的列数
set hive.hwi.war.file;
hive.cli.encoding
Hive 默认的命令行字符编码。
默认: 'UTF8'
set hive.fetch.task.conversion=more;
对于简单的不需要聚合的类似SELECT <col> from <table> LIMIT n语句,不需要起MapReduce job,直接通过Fetch task获取数据(数据量过大, 也能 无 返回结果)
类似linux的vi,直接对文本进行操作。
也有点类似shark的列存储的操作: 放在同一个array里面,所以查询数据很快
hive.fetch.task.conversion
Hive 默认的mapreduce操作
默认: minimal
旧版本HIVE需要自行在查询/子查询的SELECT关键字后面添加/*+ MAPJOIN(tablelist) */提示优化器转化为MapJoin。高版本只需设置:
set hive.auto.convert.join=true;
HIVE自行选择小表作为LEFT的左表。
hive.mapred.mode=true,严格模式不允许执行以下查询:
分区表上没有指定了分区
没有limit限制的order by语句
笛卡尔积:JOIN时没有ON语句
设置该参数是控制在同一个sql中的不同的job是否可以同时运行,默认是false
hive.exec.parallel=true ,默认为false
hive.exec.parallel.thread.number=8
hive.groupby.skewindata=true:数据倾斜时负载均衡,当选项设定为true,生成的查询计划会有两个MRJob。第一个MRJob 中,
Map的输出结果集合会随机分布到Reduce中,每个Reduce做部分聚合操作,并输出结果,这样处理的结果是相同的GroupBy Key
有可能被分发到不同的Reduce中,从而达到负载均衡的目的;第二个MRJob再根据预处理的数据结果按照GroupBy Key分布到
Reduce中(这个过程可以保证相同的GroupBy Key被分布到同一个Reduce中),最后完成最终的聚合操作。