(1)安装Hive之前必须配置好hadoop环境;
(2)安装Hive之前必须配置好JDK;
(3)本文建议安装mysql数据库·;
(4)Hive可以只安装在namenode所在的机器上,如果NameNode有多个,则每个都需要安装,可以不在datanode上安装。
(5)本文hadoop的运行采用伪分布式;
(6)本文中的所有目录(路径)均为本人自定义,访客可根据自己的需求进行更改。
(1)JDK版本:JDK1.8.0
(2)hadoop版本:Hadoop2.8.3
(3)hive版本:Hive2.3.3
(4)mysql版本:MySql5.7.2
(5)Linux版本:CentOS6.6
(1)下载hive
下载链接为:http://mirrors.hust.edu.cn/apache/hive/
(2)解压hive
将下载好的hive解压到/usr/env/hive/路径下:
tar -zxvf apache-hive-2.1.1-bin.tar.gz -C /usr/env/hive/
(3)配置hive环境变量
进入/etc/profile:
vim /etc/profile
配置hive的安装路径和conf路径:
export HIVE_HOME=/usr/env/hive/hive-2.3.3
export HIVE_CONF_DIR=$HIVE_HOME/conf
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin
使/etc/profile生效:
source /etc/profile
(4)创建数据仓库目录
在HDFS上创建数据仓库目录:
hadoop fs -mkdir -p /home/hive/warehouse
设置目录权限:
hadoop fs -chmod 777 -R /home/hive/warehouse
(5)创建临时目录
在HDFS创建Hive的临时目录:
hadoop fs -mkdir -p /tmp/hive
设置目录权限:
hadoop fs -chmod 755-R /tmp/hive
(6)设置配置文件hive-site.xml
找到hive-site.xml.template文件
配置文件目录为:
/usr/env/hive/hive-2.3.3/conf
将hive-site.xml.template文件改名为hive-site.xml:
mv hive-site.xml.template hive-site.xml
hive用来存储不同阶段的map/reduce的执行计划的目录,同时也存储中间输出结果
HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/<username> is created, with ${hive.scratch.dir.permission}.
当hive运行在本地模式时配置
允许在根scratch录中创建的用户特定的scratch目录的权限
远程资源下载的临时目录(创建一个tmp目录,本文将该目录创建在解压目录下)
JDBC connect string for a JDBC metastore.
To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.
For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.
本文使用的驱动包为mysql-connector-java-5.1.35.jar,访客可根据自己实际情况而定。
(7)配置hive-env.xml
mv hive-env.xml.template hive-env.xml
配置HADOOP_HOME,HIVE_CONF_DIR,HIVE_AUX_JARS_PATH
(8)对mysql数据库进行初始化
schematool -initSchema -dbType mysql
(9)启动hive
进入hive安装目录下的bin目录,运行:
./hive