1、关于Hive的安装包和文档可以从这里获取:
Hive官方文档
Hive下载地址
Hive源码地址
2、Hive依赖于Hadoop,关于Hadoop的安装可以查看这里:
Hadoop安装——启动模式,基本配置,启动方式
Hadoop集群搭建——环境配置
3、安装mysql
由于Hive需要在数据库中存储元数据信息,所以安装hive之前需要先安装mysql。hive有一个默认的存放在内存中的数据库,企业开发一般不使用,这里就不使用默认数据库。如果你是Centos7可以点击这里进行安装——>Centos7安装Mysql
我这里采用的是hive-2.2.0-bin版本。
1、解压
tar -xzvf apache-hive-2.2.0-bin.tar.gz -C Documents/install/
2、配置,进入和Hive的配置目录conf
(1)配置hive.env.sh运行环境, 先将hive-env.sh.template重命名为hive.env.sh。
//重命名
mv hive-env.sh.template hive-env.sh
//修改hive-env.sh配置如下
//HADOOP_HOME为hadoop的安装目录
//HIVE_CONF_DIR为Hive的配置文件所在目录
HADOOP_HOME=/home/bxp/Documents/install/hadoop-2.6.5
export HIVE_CONF_DIR=/home/bxp/Documents/install/hive-2.2.0-bin/conf
(2)配置hive-site.xml,此时文件下没有hive-site.xml,需要拷贝一份hive-default.xml.template命名为hive-site.xml,并将hive-default.xml.template重命名为hive-default.xml。将hive-site.xml文件中的配置全部删除,只需要添加以下配置即可。
<configuration>
<property>
<name>javax.jdo.option.ConnectionURLname>
<value>jdbc:mysql://localhost:3306/hive2?createDatabaseIfNotExist=truevalue>
<description>JDBC connect string for a JDBC metastoredescription>
property>
<property>
<name>javax.jdo.option.ConnectionDriverNamename>
<value>com.mysql.jdbc.Drivervalue>
<description>Driver class name for a JDBC metastoredescription>
property>
<property>
<name>javax.jdo.option.ConnectionUserNamename>
<value>adminvalue>
<description>username to use against metastore databasedescription>
property>
<property>
<name>javax.jdo.option.ConnectionPasswordname>
<value>adminvalue>
<description>password to use against metastore databasedescription>
property>
<property>
<name>hive.cli.print.headername>
<value>truevalue>
<description>Whether to print the names of the columns in query output.description>
property>
<property>
<name>hive.cli.print.current.dbname>
<value>truevalue>
<description>Whether to include the current database in the Hive prompt.description>
property>
configuration>
(3)将hive-log4j2.properties.template重命名为hive-log4j2.properties
3、下载mysql数据库连接驱动
默认情况下Hive的lib目录下没有mysql的驱动,所以需要去下载mysql驱动jar包放于Hive的lib目录下。如果没有驱动,在hive启动的时候会报错,当然根据报错提示很容易就能够发现。
4、在HDFS创建目录
启动已经安装好的hadoop,启动,并在hdfs文件系统上创建/tmp和/user/hive/warehouse目录,并为创建的目录添加同组写权限
//创建目录
bin/hdfs dfs -mkdir -p /tmp
bin/hdfs dfs -mkdir -p /user/hive/warehouse
//添加权限
dfs -chmod g+w /tmp
dfs -chmod g+w /user/hive/warehouse
5、初始化metadata
bin/schematool -dbType mysql -initSchema
6、启动
bin/hive
配置过程中细节很重要,下面就看看我在配置结束后,启动时遇到的问题以及解决方案,通过异常提示能够看出来的问题,这里就不再强调说明。
(1)问题一:与数据库建立连接时候没有权限的问题,无法连接的问题
Caused by: java.sql.SQLException: Unable to open a test connection to the given database. JDBC url = jdbc:mysql://192.168.1.103:3306/hivemetastore, username = admin. Terminating connection pool (set lazyInit to true if you expect to start your database after your app). Original Exception: ------
java.sql.SQLException: Access denied for user 'admin'@'hadoop-series.bxp.com' (using password: YES)
这个问题我查了很多说法,都是众说纷纭,最后发现,最简单的解决办法就是,不要去尝试创建一个新的数据库用户用于连接,直接使用mysql root用户连接即可。
但是使用root用户连接的时候,发只能够使用localhost(jdbc:mysql://localhost:3306
) 才能够连接成功,而无法使用IP(jdbc:mysql://192.168.1.103:3306
)进行连接。实际中hive和mysql不一定在一台主机上,所以必须要使用IP进行连接,要解决这个问题,只需要修改mysql root用户权限即可。具体步骤如下:
//登陆mysql
sudo mysql -uroot -p
//对mysql表进行操作
use mysql
//查看表中的信息
select user,host from user;
//修改root用户权限,默认是只能够本地登陆(localhost,127.0.0.1),修改为"%"就可以远程登陆
update user set host='%' where user='root' and host='localhost';
//将root本地登陆权限删除,具体的看表中的信息
delete from user where user='root' and host='::1';
delete from user where user='root' and host='127.0.0.1';
delete from user where user='root' and host='localhost.localdomain';
//刷新权限
flush privileges;
此时就可以通过IP(jdbc:mysql://192.168.1.103:3306
)进行连接。
本人尝试过创建用户时使用主机IP(CREATE USER user1@IP ),此时连接时也使用IP(jdbc:mysql://IP:3306),也尝试过给创建的用户赋予”%”权限,但是还是相同的错误无法连接。新创建的用户只能够使用localhost权限,并且只能在本地进行登陆。所以初步断定这是Mysql为用户分配权限的原因。具体的原因没有深究,想了解更多的可以去查阅相关的资料进行解决。
(2)问题二:无法找到metadata
Caused by: org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
Caused by: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
Caused by: java.lang.reflect.InvocationTargetException
Caused by: MetaException(message:Version information not found in metastore. )
这个问题我也查了很多资料,也是有各种的说法,最后选择低版本(hive-0.13.1-bin)按照上面的的配置进行一系列的配置,居然正常启动了。最后就觉得是版本问题。最终发现在Hive2以后,安装启动hive之前需要对hive metadata进行初始化。使用如下命令:
bin/schematool -dbType mysql -initSchema
初始化完成之后就能够正常启动了。
(3)问题三:9000端口无法访问
Caused by: java.net.ConnectException: Call From hadoop-series.bxp.com/192.168.1.103 to hadoop-series.bxp.com:9000 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
首先是防火墙,如果你的防火墙已经关闭了,那就是hdfs没有启动成功或者没有启动导致的,因为9000是hdfs其中一个服务的端口。这里有必要说一下,我使用hive-0.13.1-bin版本进行启动的时候,不需要开启hdfs也能够启动。但是2.0后必须依赖hdfs。