一. 什么是hive
hive是基于Hadoop的一个[数据仓库]工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合[数据仓库]的统计分析。
数据仓库
[数据仓库],英文名称为Data Warehouse,可简写为[DW]或DWH。数据仓库,是为企业所有级别的决策制定过程,提供所有类型数据支持的战略[集合]。它是单个数据存储,出于分析性报告和决策支持目的而创建。 为需要业务智能的企业,提供指导业务流程改进、监视时间、成本、质量以及控制,**简而言之,数据仓库是用来做查询分析的数据库,基本不用来做插入,修改,删除
Hive架构原理
**Hive****执行流程**
•编译器将一个Hive QL转换操作符
•操作符是Hive的最小的处理单元
•每个操作符代表HDFS的一个操作或者一道MapReduce作业
**Operator**
•Operator都是hive定义的一个处理过程
•Operator都定义有:
•protected List **>** childOperators;
•protected List **>** parentOperators;
•protected boolean done; // 初始化值为false
•所有的操作构成了 Operator图,hive正是基于这些图关系来处理诸如limit, group by, join等操作
Hive****执行流程
Hive****编译器
二.hive三种方式区别和搭建
Hive中metastore(元数据存储)的三种方式:
a)内嵌Derby方式
b)Local方式
c)Remote方式
1.本地derby
这种方式是最简单的存储方式,只需要在hive-site.xml做如下配置便可
javax.jdo.option.ConnectionURL
jdbc:derby:;databaseName=metastore_db;create=true
javax.jdo.option.ConnectionDriverName
org.apache.derby.jdbc.EmbeddedDriver
hive.metastore.local
true
hive.metastore.warehouse.dir
/user/hive/warehouse
注:使用derby存储方式时,运行hive会在当前目录生成一个derby文件和一个metastore_db目录。这种存储方式的弊端是在同一个目录下同时只能有一个hive客户端能使用数据库,否则会提示如下错误
[html] [view plain](http://blog.csdn.net/reesun/article/details/8556078 "view plain")[copy](http://blog.csdn.net/reesun/article/details/8556078 "copy")[print](http://blog.csdn.net/reesun/article/details/8556078 "print")[?](http://blog.csdn.net/reesun/article/details/8556078 "?")
hive> show tables;
FAILED: Error in metadata: javax.jdo.JDOFatalDataStoreException: Failed to start database 'metastore_db', see the next exception for details.
NestedThrowables:
java.sql.SQLException: Failed to start database 'metastore_db', see the next exception for details.
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask
hive> show tables;
FAILED: Error in metadata: javax.jdo.JDOFatalDataStoreException: Failed to start database 'metastore_db', see the next exception for details.
NestedThrowables:
java.sql.SQLException: Failed to start database 'metastore_db', see the next exception for details.
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask
2.本地mysql
这种存储方式需要在本地运行一个mysql服务器,并作如下配置(下面两种使用mysql的方式,需要将mysql的jar包拷贝到$HIVE_HOME/lib目录下)。
hive.metastore.warehouse.dir
/user/hive_remote/warehouse
hive.metastore.local
true
javax.jdo.option.ConnectionURL
jdbc:mysql://localhost/hive_remote?createDatabaseIfNotExist=true
javax.jdo.option.ConnectionDriverName
com.mysql.jdbc.Driver
javax.jdo.option.ConnectionUserName
hive
javax.jdo.option.ConnectionPassword
password
3..远端mysql
1.remote一体
这种存储方式需要在远端服务器运行一个mysql服务器,并且需要在Hive服务器启动meta服务。
这里用mysql的测试服务器,ip位192.168.1.214,新建hive_remote数据库,字符集位****latine1
hive.metastore.warehouse.dir
/user/hive/warehouse
javax.jdo.option.ConnectionURL
jdbc:mysql://192.168.57.6:3306/hive?createDatabaseIfNotExist=true
javax.jdo.option.ConnectionDriverName
com.mysql.jdbc.Driver
javax.jdo.option.ConnectionUserName
hive
javax.jdo.option.ConnectionPassword
password
hive.metastore.local
false
hive.metastore.uris
thrift://192.168.1.188:9083
注:这里把hive****的服务端和客户端都放在同一台服务器上了。服务端和客户端可以拆开,
2.Remote分开
将hive-site.xml配置文件拆为如下两部分
** 1****)、服务端配置文件**
hive.metastore.warehouse.dir
/user/hive/warehouse
javax.jdo.option.ConnectionURL
jdbc:mysql://192.168.57.6:3306/hive?createDatabaseIfNotExist=true
javax.jdo.option.ConnectionDriverName
com.mysql.jdbc.Driver
javax.jdo.option.ConnectionUserName
root
javax.jdo.option.ConnectionPassword
123456
** 2****)、客户端配置文件**
hive.metastore.warehouse.dir
/user/hive/warehouse
hive.metastore.local
false
hive.metastore.uris
thrift://192.168.57.5:9083
启动hive服务端程序
hive --service metastore
客户端直接使用hive命令即可
root@my188:~$ hive
Hive history file=/tmp/root/hive_job_log_root_201301301416_955801255.txt
hive> show tables;
OK
test_hive
Time taken: 0.736 seconds
hive>
三.Hive的数据类型和DDL
具体参见https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL
重点是hive 的建表语句和分区
四.Hive的数据加载和DML
具体参见https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DML
重点是数据加载和查询插入语法
五.Hiveserver2和hive JDBC
企业用hive的-e -f -i三个参数
六.Hive的UDF和UDAF UDTF
自定义函数包括三种UDF、UDAF、UDTF
UDF(User-Defined-Function) 一进一出
UDAF(User- Defined Aggregation Funcation) 聚集函数,多进一出。Count/max/min
UDTF(User-Defined Table-Generating Functions) 一进多出,如lateral view explore()
使用方式 :在HIVE会话中add 自定义函数的jar文件,然后创建function继而使用函数
UDF****开发
1、UDF函数可以直接应用于select语句,对查询结构做格式化处理后,再输出内容。
2、编写UDF函数的时候需要注意一下几点:
a)自定义UDF需要继承org.apache.hadoop.hive.ql.UDF。
b)需要实现evaluate函数,evaluate函数支持重载。
3、步骤
a)把程序打包放到目标机器上去;
b)进入hive客户端,添加jar包:hive>add jar /run/jar/udf_test.jar;
c)创建临时函数:hive>CREATE TEMPORARY FUNCTION add_example AS 'hive.udf.Add';
d)查询HQL语句:
SELECT add_example(8, 9) FROM scores;
SELECT add_example(scores.math, scores.art) FROM scores;
SELECT add_example(6, 7, 8, 6.8) FROM scores;
e)销毁临时函数:hive> DROP TEMPORARY FUNCTION add_example;
UDAF 自定义集函数
多行进一行出,如sum()、min(),用在group by时
1.必须继承
} org.apache.hadoop.hive.ql.exec.UDAF(函数类继承)
} org.apache.hadoop.hive.ql.exec.UDAFEvaluator(内部类Evaluator实现UDAFEvaluator接口)
2.Evaluator需要实现 init、iterate、terminatePartial、merge、terminate这几个函数
} init():类似于构造函数,用于UDAF的初始化
} iterate():接收传入的参数,并进行内部的轮转,返回boolean
} terminatePartial():无参数,其为iterate函数轮转结束后,返回轮转数据, 类似于hadoop的Combiner
} merge():接收terminatePartial的返回结果,进行数据merge操作,其返回类型为boolean
} terminate():返回最终的聚集函数结果
}开发一个功能同:
}Oracle的wm_concat()函数
}Mysql的group_concat()
七.Hwi环境搭建
HWI是Hive Web Interface的简称,是hive cli的一个web替换方案。
需要下载Hive的源码文件,然后将hwi/web目录下的文件用 jar cvf hive-hwi-0.13.1.war ./*
其实war包也是zip包,可以通过
cd hwi/web
zip hive-hwi-1.2.1.zip ./* //打包成.zip文件。
将zip包后缀改成war
mv hive-hwi-1.2.1.zip hive-hwi-1.2.1.war
cp hive-hwi-1.2.1.war /opt/sxt/soft/apache-hive-1.2.1-bin/lib/
命令来打包成一个war包,然后放到Hive的lib目录下即可
配置conf/hive-site.xml
hive.hwi.war.file
lib/hive-hwi-1.2.1.war
hive.hwi.listen.host
0.0.0.0
hive.hwi.listen.port
9999
执行命令hive --service hwi
访问http://192.168.17.4:9999/hwi
可参照http://blog.csdn.net/wulantian/article/details/38271803
九.Hive的优化
见文档hive优化