一、简介
1. hive
三个节点 分别在hdp01、hdp02 、hdp03
2. zookeeper
5个节点 分别在 hdp04、hdp05、hdp06 、hdp07 、hdp08
3. hadoop
7个节点 : namenode hdp01 、hdp02
datanode hdp03、hdp04、hdp05 、hdp06、hdp07 、hdp08
二、搭建步骤
1.安装mysql
rpm -ivh MySQL-server-5.6.26-1.linux_glibc2.5.x86_64.rpm
rpm -ivh MySQL-client-5.6.26-1.linux_glibc2.5.x86_64.rpm
可能会缺少perl
yum install perl
注意要点:
首次登陆完成之后,注意要直接配置好root可以远程登录,否则还需要进行其他的修改。
如何修改在另外一篇文章中有记录
https://mp.csdn.net/postedit/89081368
2.安装hive与mysql 、zk集成
这里安装步骤省略。主要是修改配置文件,这里只说明一下hive的安装文件的配置以及说明
scp hive-env.sh.template hive-env.sh
scp hive-default.xml.template hive-site.xml
修改hive-env.sh
具体的配置根据自己的情况来定,我的配置是这样
HADOOP_HOME=/usr/hadoop/hadoop-2.8.1/
HIVE_CONF_DIR=/root/app/apache-hive-3.1.1-bin/conf
HIVE_AUX_JARS_PATH=/root/app/apache-hive-3.1.1-bin/lib
修改hive-site.xml
-----------------------------------------数据库集成配置-----------------------------------------
--------------------------------------------hive工作目录的配置--------------------------------------------------
环境变量最好配置一下,否则获取不了的话,生成的文件名很杂乱,比如下面的我就设置了
-------------------------------------------元数据的配置创建很重要,不配置的话与mysql集成有可能会出问题------------
Enforce metastore schema version consistency.
True: Verify that version information stored in is compatible with one from Hive jars. Also disable automatic
schema migration attempt. Users are required to manually migrate schema after Hive upgrade which ensures
proper metastore schema migration. (Default)
False: Warn if the version information stored in metastore doesn't match with one from in Hive jars.
--------------------------------------连接mysql数据库的用户名密码---------------------------
---------------------------------------其他配置--------------------------------------------------
---------------------------------------zookeeper---------------------------------------------------
hdp04:2181,hdp05:2181,hdp06:2181,hdp07:2181,hdp08:2181
List of ZooKeeper servers to talk to. This is needed for:
1. Read/write locks - when hive.lock.manager is set to
org.apache.hadoop.hive.ql.lockmgr.zookeeper.ZooKeeperHiveLockManager,
2. When HiveServer2 supports service discovery via Zookeeper.
3. For delegation token storage if zookeeper store is used, if
hive.cluster.delegation.token.store.zookeeper.connectString is not set
4. LLAP daemon registry service
5. Leader selection for privilege synchronizer
--------------------------------------hiveserver的日志路径配置-----------------------------------------------
Expects one of [binary, http].
Transport mode of HiveServer2.
------------------------------------------------关于hdfs的相关配置-------------------------------------------
hdfs-site.xml 文件配置
core-site.xml 配置 这里配置很重要 还有要注意这里的name页签中的root 这里是hdfs登录的具体的用户名,写错了就会报错,访问hive的时候会报错
配置完成之后,需要有一个jdbc的jar包驱动
三、操作指令
1.后台启动服务. 在hive节点上启动即可
nohup hiveserver2 -hiveconf hive.root.logger=DEBUG,console 1> hive.log 2>&1 &
2.客户端访问 belline 敲入以下指令登录
!connect jdbc:hive2://hdp04:2181,hdp05:2181,hdp06:2181,hdp07:2181,hdp08:2181/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=hiveserver2_zk root "root"