前言
前面已经讲过hadoop3.1的安装教程,本次主要基于hadoop3.1安装3.1
安装hive
第一步
下载hive3.1
http://mirrors.hust.edu.cn/apache/hive/
解压
tar -zxvf apache-hive-3.1.0-bin.tar.gz
重命名
mv apache-hive-3.1.0-bin/ hive-3.1.0/
添加hive环境
source /etc/profile
第二步
进入conf目录添加一个hive-site.xml配置文件,copy模板就好了
cp hive-default.xml.template hive-site.xml
修改hive-site.xml配置
vi hive-site.xml
其他的property都删了,只保留下面几个property配置就好了
在hive目录下创建iotmp目录
将hive-site.xml这种所有{system:java.io.tmpdir}替换成/root/hive-3.1.0/iotmp
第三步
添加hive-env.sh文件,copy模板即可
cp hive-env.sh.template hive-env.sh
vi hive-evn.sh修改HADOOP_HOME、HIVE_CONF_DIR、HIVE_AUX_JARS_PATH
配置日志,复制一个模板
cp hive-log4j2.properties.template hive-log4j2.properties
vi hive-log4j2.properties
配置property.hive.log.dir
property.hive.log.dir = /root/hive-3.1.0/logs(注意:logs需要自己创建,在hive目录下mkdir logs)
第四步
添加mysql的驱动包到hive/lib下
cp mysql-connector-java-5.1.36.jar /root/hive-3.1.0/lib/
第五步
在mysql新增hive数据库,客户端工具用的Navicat,我的mysql安装在物理机,然后虚拟机配置连接物理机就好
第六步
创建hive仓库目录
hadoop dfs -mkdir -p /user/hive/warehouse
hadoop dfs -chmod g+w /user/hive/warehouse
创建后可以再hdfs管理看到
第七步
始化数据库
schematool -dbType mysql -initSchema
执行完后出现下面打印即初始化完成
看看mysql hive数据库,这个时候可以看到创建了一堆新表,这些即是管理元数据的表,
第八步
启动hive,show databases;出现数据,安装成功
至此,hive安装成功