1Q: 是否有像类似于phpmyadmin一样的hive查询客户端,能以界面的方式查询hive语句和导出数据
A: 有的,客户端的话可以使用squirrel来连接hive,squirrel是一个通用的数据库查询客户端,还有有一个开源项目phphiveadmin也不错,
web方式访问hive,这里也有一个hive web client(https://github.com/lalaguozhe/hiveweb-1)
2Q: 执行语句时候,能否控制reducer的个数
A: 可以在执行hive语句之前先 set mapred.reduce.tasks=<number>
3Q: 是否可能在输出的时候在结果第一行打印列名
A: 可以在执行hive语句之前先 set hive.cli.print.header=true;
4Q: Hive是否支持跨数据库查询,比如database arch的table1和database algo的table2 进行join
A: 可以,只要有用户有这两张表的select权限即可,用户需要用“database.table”的方式来指定数据库下的表
5Q: Hive是否有内置的函数,可以对输出的数据进行处理
A: Hive提供了丰富的内置函数,参见https://cwiki.apache.org/Hive/languagemanual-udf.html,
用户也可以自己实现自定义的UDF方法来满足更复杂的查询需求
6Q: Hive支持exist in么?
A: 不支持,但是可以通过改写语句达到相同的效果,比如对于查询语句:
SELECT a.key, a.value FROM a WHERE a.key in (SELECT b.key FROM B);
可以改写成:
SELECT a.key, a.val
FROM a LEFT SEMI JOIN b on (a.key = b.key)
PS:上述答案过时了,目前 hive 已经支持 in 查询了。
http://blog.csdn.net/yfkiss/article/details/8073608
7Q:Hive是否支持本地执行模式
A:Hive支持本地执行模式,当数据量小的时候,本地执行比提交到集群上执行效率提升很大
set hive.exec.mode.local.auto=true(默认false)
当一个job满足如下条件才能真正使用本地模式:
1.job的输入数据大小必须小于参数hive.exec.mode.local.auto.inputbytes.max(默认值128MB)
2.job的map处理的文件数大于参数hive.exec.mode.local.auto.input.files.max(默认值4)
3.job的reduce数必须为0或者1,不管是用户设置的还是系统推测出来的
用参数hive.mapred.local.mem(默认0)来设置local mode下mapper和reducer task jvm heap size
8Q: 关键词UNION ALL的用法
A:The number and names of columns returned by each select_statement has to be the same. Otherwise, a schema error is thrown.
UNION ALL两边的字段名,和字段数都必须一致,可以用as xxx来统一字段名,并且目前UNION ALL只能作为子查询。
9Q:hive left outer join的问题:where 与 on 条件的区别
http://blog.csdn.net/lalaguozhe/article/details/9498947
10Q:其它技巧请见:
http://my.oschina.net/leejun2005/blog/121945
11、对于 jar 包调用失败 NullPointerException 的问题:
FAILED: Error in metadata: java.lang.NullPointerException
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask
你可能需要再 hive-site.xml 中添加 jar 的路径:
具体参考:http://abloz.com/2013/03/28/the-hive-execute-statements-times-nullpointerexception.html
<property> <name> hive.aux.jars.path </name> <value> file:///home/june/soft/hive-0.9.0-bin/lib/hive-json-serde.jar </value> </property>
12、通过伪列定位出错的原始文件和行号:http://blog.csdn.net/lalaguozhe/article/details/11467593
通常用户在HIVE中用SELECT语句出来结果,无法确定结果是来自哪个文件或者具体位置信息,HIVE中考虑到了这点,在Virtual Column虚列中可以指定三个静态列:
1. INPUT__FILE__NAME map任务读入File的全路径
2. BLOCK__OFFSET__INSIDE__FILE 如果是RCFile或者是SequenceFile块压缩格式文件则显示Block file Offset,也就是当前快在文件的第一个字偏移量,如果是TextFile,显示当前行的第一个字节在文件中的偏移量
3. ROW__OFFSET__INSIDE__BLOCK RCFile和SequenceFile显示row number, textfile显示为0
注:若要显示ROW__OFFSET__INSIDE__BLOCK ,必须设置set hive.exec.rowoffset=true;
select hostname, INPUT__FILE__NAME,BLOCK__OFFSET__INSIDE__FILE,ROW__OFFSET__INSIDE__BLOCK from t_NginxLog where dt='2013-09-01' limit 10;
REF:
Hive 常见问题(持续更新。。。)
http://blog.csdn.net/lalaguozhe/article/details/9081971
hive 0.10 0.11新增特性综述
http://blog.csdn.net/lalaguozhe/article/details/11730817
hive0.11升级碰到的坑
http://blog.csdn.net/lalaguozhe/article/details/17504761