使用JDBC方式访问Hive

使用JDBC方式访问Hive


文章目录

  • 使用JDBC方式访问Hive
    • 写在前面
    • 正文
      • 配置文件
      • 启动hiveserver2
      • 编写hive服务启动脚本
        • 启动方式
        • 脚本编写


写在前面

  • Linux版本:CentOS7.5
  • Hive版本:Hive-3.1.2

前面的文章【Hive的安装教程】使用的是「元数据服务的方式访问Hive」,本文采用「使用JDBC方式访问Hive」

正文

配置文件

hive-site.xml 文件中添加如下配置信息:指定「hiveserver2连接的host」以及「hiveserver2连接的port」

 
<property>
    <name>hive.server2.thrift.bind.hostname>
    <value>wbd01value>
property>


<property>
    <name>hive.server2.thrift.portname>
    <value>10000value>
property>

启动hiveserver2

  • 启动命令
[whybigdata@wbd01 hive-3.1.2]$ bin/hive --service hiveserver2
  • 启动beeline客户端(需要多等待一会)
[whybigdata@wbd01 hive-3.1.2]$ bin/beeline -u jdbc:hive2://wbd01:10000 -n whybigdata

看到如下界面

Connecting to jdbc:hive2://wbd01:10000
Connected to: Apache Hive (version 3.1.2)
Driver: Hive JDBC (version 3.1.2)
Transaction isolation: TRANSACTION_REPEATABLE_READ
Beeline version 3.1.2 by Apache Hive
0: jdbc:hive2://wbd01:10000>

编写hive服务启动脚本

启动方式

前台启动的方式导致需要打开多个shell窗口,可以使用如下方式后台方式启动

  • nohup: 放在命令开头,表示不挂起,也就是关闭终端进程也继续保持运行状态
  • /dev/null:是Linux文件系统中的一个文件,被称为黑洞,所有写入改文件的内容都会被自动丢弃
  • 2>&1 : 表示将错误重定向到标准输出上
  • &: 放在命令结尾,表示后台运行

一般会组合使用: nohup [xxx命令操作]> file 2>&1 &,表示将xxx命令运行的结果输出到file中,并保持命令启动的进程在后台运行。

[whybigdata@hadoop202 hive-3.1.2]$ nohup hive --service metastore 2>&1 &
[whybigdata@hadoop202 hive-3.1.2]$ nohup hive --service hiveserver2 2>&1 &
脚本编写

为了方便使用,可以直接编写脚本来管理服务的启动和关闭

[whybigdata@wbd01 hive-3.1.2]$ vim $HIVE_HOME/bin/hiveservices.sh

内容如下:

#!/bin/bash
HIVE_LOG_DIR=$HIVE_HOME/logs
if [ ! -d $HIVE_LOG_DIR ]
then
	mkdir -p $HIVE_LOG_DIR
fi
#检查进程是否运行正常,参数1为进程名,参数2为进程端口
function check_process()
{
    pid=$(ps -ef 2>/dev/null | grep -v grep | grep -i $1 | awk '{print $2}')
    ppid=$(netstat -nltp 2>/dev/null | grep $2 | awk '{print $7}' | cut -d '/' -f 1)
    echo $pid
    [[ "$pid" =~ "$ppid" ]] && [ "$ppid" ] && return 0 || return 1
}

function hive_start()
{
    metapid=$(check_process HiveMetastore 9083)
    cmd="nohup hive --service metastore >$HIVE_LOG_DIR/metastore.log 2>&1 &"
    [ -z "$metapid" ] && eval $cmd || echo "Metastroe服务已启动"
    server2pid=$(check_process HiveServer2 10000)
    cmd="nohup hiveserver2 >$HIVE_LOG_DIR/hiveServer2.log 2>&1 &"
    [ -z "$server2pid" ] && eval $cmd || echo "HiveServer2服务已启动"
}

function hive_stop()
{
metapid=$(check_process HiveMetastore 9083)
    [ "$metapid" ] && kill $metapid || echo "Metastore服务未启动"
    server2pid=$(check_process HiveServer2 10000)
    [ "$server2pid" ] && kill $server2pid || echo "HiveServer2服务未启动"
}

case $1 in
"start")
    hive_start
    ;;
"stop")
    hive_stop
    ;;
"restart")
    hive_stop
    sleep 2
    hive_start
    ;;
"status")
    check_process HiveMetastore 9083 >/dev/null && echo "Metastore服务运行正常" || echo "Metastore服务运行异常"
    check_process HiveServer2 10000 >/dev/null && echo "HiveServer2服务运行正常" || echo "HiveServer2服务运行异常"
    ;;
*)
    echo Invalid Args!
    echo 'Usage: '$(basename $0)' start|stop|restart|status'
    ;;
esac

说明:此脚本的编写不要求掌握。直接拿来使用即可。

  • 添加执行权限
[whybigdata@wbd01 hive-3.1.2]$ chmod +x $HIVE_HOME/bin/hiveservices.sh
  • 启动Hive后台服务
[whybigdata@wbd01 hive-3.1.2]$ hiveservices.sh start

全文结束!!!

你可能感兴趣的:(Hive,hive,hadoop,大数据)