高可用Hive配置多客户端 多用户模式

高可用Hive配置多客户端

hive高可用搭建完毕了,但是如果想在其他节点连接hive怎么办呢?

这个时候我们就需要在其他节点安装hive的客户端

高可用hive的搭建参考我的另一篇文章
hive高可用搭建

1.复制安装文件

将hdp14的安装文件复制到要连接hive的节点hdp16

[along@hdp14 bigdata]$ scp -r hive along@hdp16:/opt/bigdata/

2.修改核心配置

连接hdp16,添加配置文件

[along@hdp16 hive]$ pwd
/opt/bigdata/hive
[along@hdp16 hive]$ cd conf/
[along@hdp16 conf]$ mv hive-site.xml hive-site.xml.bak
[along@hdp16 conf]$ vim hive-site.xml

添加如下内容



<configuration>
    
    <property>
        <name>hive.metastore.warehouse.dirname>
        <value>/data/hive/data/warehousevalue>
    property>
    
    <property>
        <name>hive.metastore.localname>
        <value>falsevalue>
    property>
    <property>
        <name>hive.metastore.urisname>
        <value>thrift://hdp14:9083,thrift://hdp15:9083value>
    property>
configuration>

3.配置环境变量

[along@hdp16 conf]$ sudo vim /etc/profile.d/my_env.sh

添加

#HIVE_HOME
export HIVE_HOME=/opt/bigdata/hive
export PATH=$PATH:$HIVE_HOME/bin
#SPARK_HOME
export SPARK_HOME=/opt/bigdata/spark
export PATH=$PATH:$SPARK_HOME/bin

环境变量生效

[along@hdp16 conf]$ source /etc/profile.d/my_env.sh 

4.连接hive

[along@hdp16 ~]$ beeline
Beeline version 3.1.2 by Apache Hive
beeline> !connect jdbc:hive2://hdp16,hdp17,hdp18/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=hiveserver2_zk along root
Connecting to jdbc:hive2://hdp16,hdp17,hdp18/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=hiveserver2_zk
21/06/17 12:25:00 [main]: INFO jdbc.HiveConnection: Connected to hdp15:10000
Connected to: Apache Hive (version 3.1.2)
Driver: Hive JDBC (version 3.1.2)
Transaction isolation: TRANSACTION_REPEATABLE_READ

完成!

你可能感兴趣的:(Hive,hive,大数据,数据仓库,hadoop)