二、Hive3.1安装

前言

前面已经讲过hadoop3.1的安装教程,本次主要基于hadoop3.1安装3.1

安装hive

第一步

下载hive3.1

http://mirrors.hust.edu.cn/apache/hive/

解压

tar -zxvf apache-hive-3.1.0-bin.tar.gz

重命名

mv apache-hive-3.1.0-bin/ hive-3.1.0/

添加hive环境

source /etc/profile

第二步

进入conf目录添加一个hive-site.xml配置文件,copy模板就好了

cp hive-default.xml.template hive-site.xml

修改hive-site.xml配置

vi hive-site.xml

其他的property都删了,只保留下面几个property配置就好了

      javax.jdo.option.ConnectionUserName

      root

 

 

      javax.jdo.option.ConnectionPassword

      root

 

 

      javax.jdo.option.ConnectionURL

      jdbc:mysql://192.168.110.253:3306/hive

 

 

      javax.jdo.option.ConnectionDriverName

      com.mysql.jdbc.Driver

 

 

      hive.metastore.schema.verification

      false

 

 

    datanucleus.schema.autoCreateAll

    true

 

在hive目录下创建iotmp目录

将hive-site.xml这种所有{system:java.io.tmpdir}替换成/root/hive-3.1.0/iotmp

第三步

添加hive-env.sh文件,copy模板即可

cp hive-env.sh.template hive-env.sh

vi hive-evn.sh修改HADOOP_HOME、HIVE_CONF_DIR、HIVE_AUX_JARS_PATH

二、Hive3.1安装_第1张图片

 

配置日志,复制一个模板

cp hive-log4j2.properties.template hive-log4j2.properties

vi hive-log4j2.properties

配置property.hive.log.dir

property.hive.log.dir = /root/hive-3.1.0/logs(注意:logs需要自己创建,在hive目录下mkdir logs)

第四步

添加mysql的驱动包到hive/lib下

cp mysql-connector-java-5.1.36.jar /root/hive-3.1.0/lib/

第五步

在mysql新增hive数据库,客户端工具用的Navicat,我的mysql安装在物理机,然后虚拟机配置连接物理机就好

二、Hive3.1安装_第2张图片

第六步

创建hive仓库目录

hadoop dfs -mkdir -p /user/hive/warehouse

hadoop dfs -chmod g+w /user/hive/warehouse

创建后可以再hdfs管理看到

二、Hive3.1安装_第3张图片

第七步

始化数据库

schematool -dbType mysql -initSchema

执行完后出现下面打印即初始化完成

看看mysql hive数据库,这个时候可以看到创建了一堆新表,这些即是管理元数据的表,

二、Hive3.1安装_第4张图片

第八步

启动hive,show databases;出现数据,安装成功

二、Hive3.1安装_第5张图片

至此,hive安装成功

你可能感兴趣的:(大数据,hive)