远程模式搭建Hive

远程模式即服务端与客户端在不同的机器上。在之前的博客中已经记录了三台节点搭建的hadoop集群,并在hadoop02上安装了hive,在hadoop03上安装了mysql。这里我们将hadoop01节点作为hive的客户端,hadoop02作为hive的服务端。

  • 要使用远程模式,需要在Hadoop的每个节点上的core-site.xml中添加如下配置:
[root@hadoop01 hadoop]# pwd
/usr/local/wyh/hadoop-2.7.5/etc/hadoop

[root@hadoop01 hadoop]# vi core-site.xml
#添加如下配置
        
                hadoop.proxyuser.root.hosts
                *
        
        
                hadoop.proxyuser.root.groups
                *
        
  • 修改完配置之后,需要重启hadoop服务
[root@hadoop01 hadoop]# stop-all.sh
[root@hadoop01 hadoop]# start-all.sh
  • 在hadoop01上安装Hive

解压:

[root@hadoop01 wyh]# tar -zxvf apache-hive-2.3.9-bin.tar.gz

配置环境变量:

[root@hadoop01 wyh]# vi /etc/profile
#添加
HIVE_HOME=/usr/local/wyh/apache-hive-2.3.9-bin
PATH=$PATH:$HIVE_HOME/bin
export HIVE_HOME PATH

#使配置生效
[root@hadoop01 wyh]# source /etc/profile
  • 在hadoop02上开启hiveserver2服务

开启hive服务端可以有两种方式,这里我采用hiveserver2的这种方式。

[root@hadoop02 hadoop]# hive --service hiveserver2 &

远程模式搭建Hive_第1张图片

  • 在hadoop01上使用beeline直连的方式连接hive服务端

由于hive服务端开启服务有两种不同的方式,所以在客户端连接hive服务端时,也对应了不同的连接方式。由于前面使用的是hiveserver2的方式启动的服务端,所以这里就需要使用beeline的方式连接服务端。

[root@hadoop01 wyh]# beeline -u jdbc:hive2://hadoop02:10000 -n root

 连接成功:

远程模式搭建Hive_第2张图片

 退出客户端:

0: jdbc:hive2://hadoop02:10000> !quit

#########################  hive 服务的第二种方式  #############################

先将用第一种方式启动的hive服务停掉:

远程模式搭建Hive_第3张图片

  •  在hadoop02上启动metastore服务
[root@hadoop02 hadoop]# hive --service metastore &

 远程模式搭建Hive_第4张图片

  •  在hadoop01上添加metastore配置

使用metastore这种方式启动hive服务时,在客户端连接时需要先添加配置:

[root@hadoop01 conf]# pwd
/usr/local/wyh/apache-hive-2.3.9-bin/conf

#新建一个hive-site.xml文件
[root@hadoop01 conf]# cat hive-site.xml



        
                hive.metastore.uris
                thrift://hadoop02:9083
        



#thrift为协议名称,后面跟的是metastore服务所在的主机ip,9083为默认端口号

配置好之后直接启动hive即可连接:

[root@hadoop01 conf]# hive

连接成功:

远程模式搭建Hive_第5张图片

退出客户端:

hive> quit
    > ;

############################################################################

以上就是远程模式搭建Hive的过程。

你可能感兴趣的:(大数据之Hadoop,hive,hadoop,mysql)