目录
一、说明
二、Hive安装与配置
1.上传文件并解压
2.修改目录名称
3.配置hive环境变量
4.删除冲突jar包
5.启动hadoop集群
6.初始化元数据库并启动
三、MySQL安装与配置
1.检查和上传文件并解压
四、hive服务启动脚本
1.创建脚本
2.修改权限
3.脚本使用方法
本文使用的hive为:hive-3.1.2
mysql版本为:mysql-5.7.28
mysql驱动版本为:mysql-connector-java-5.1.37
本文采用本地安装模式
进入/opt/software/目录
[root@bigdata2023master ~]$ cd /opt/software/
上传apache-hive-3.1.2-bin.tar.gz
上传mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar
上传mysql-connector-java-5.1.37.jar
解压apache-hive-3.1.2-bin.tar.gz
[root@bigdata2023master software]$ tar -zxvf apache-hive-3.1.2-bin.tar.gz -C /opt/module/
[root@bigdata2023master software]$ mv /opt/module/apache-hive-3.1.2-bin/ /opt/module/hive-3.1.2
[root@bigdata2023master software]$ vim /etc/profile.d/my_env.sh
在末尾添加内容
#HIVE_HOME
export HIVE_HOME=/opt/module/hive-3.1.2
export PATH=$PATH:$HIVE_HOME/bin
使环境变量的修改生效
[root@bigdata2023master software]$ source /etc/profile
[root@bigdata2023master software]$ rm /opt/module/hive-3.1.2/lib/log4j-slf4j-impl-2.10.0.jar
可以采用正常命令方式启动hadoop,这里使用脚本启动hadoop集群,没有脚本可看该作者脚本合集
[root@bigdata2023master software]$ myhadoop.sh start
[root@bigdata2023master software]$ cd ../module/hive-3.1.2/bin/
[root@bigdata2023master bin]$ schematool -dbType derby -initSchema
启动hive
[root@bigdata2023master bin]$ hive
退出hive
hive> exit;
查看是否已安装MySQL
[root@bigdata2023master ~]$ rpm -qa|grep mariadb
若已安装,需要卸载MySQL
[root@bigdata2023master ~]$ rpm -e --nodeps mariadb-libs
进入/opt/software/目录
[root@bigdata2023master ~]$ cd /opt/software/
解压mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar
[root@bigdata2023master software]$ tar -xf mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar
执行命令
[root@bigdata2023master software]$ yum install -y libaio
如果安装成功,或者显示以下内容,即可继续安装步骤:
软件包 libaio-0.3.109-13.el7.x86_64 已安装并且是最新版本
无须任何处理
安装,依次输入以下5条命令
rpm -ivh mysql-community-common-5.7.28-1.el7.x86_64.rpm
rpm -ivh mysql-community-libs-5.7.28-1.el7.x86_64.rpm
rpm -ivh mysql-community-libs-compat-5.7.28-1.el7.x86_64.rpm
rpm -ivh mysql-community-client-5.7.28-1.el7.x86_64.rpm
rpm -ivh mysql-community-server-5.7.28-1.el7.x86_64.rpm
初始化数据库
[root@bigdata2023master software]$ mysqld --initialize --user=mysql
查看临时密码
[root@bigdata2023master software]$ cat /var/log/mysqld.log
启动MySQL
[root@bigdata2023master software]$ systemctl start mysqld
登录
[root@bigdata2023master software]$ mysql -uroot -p
输入临时密码
Enter password: 临时密码
登陆成功后,修改密码为123456
mysql> set password = password("123456");
使root允许任意ip连接
mysql> update mysql.user set host='%' where user='root';
mysql> flush privileges;
退出MySQL
mysql> exit;
拷贝MySQL的JDBC驱动至hive-3.1.2下的lib/
[root@bigdata2023master software]$ cp /opt/software/mysql-connector-java-5.1.37.jar /opt/module/hive-3.1.2/lib/
编写配置文件hive-site.xml
[root@bigdata2023master software]$ cd /opt/module/hive-3.1.2/conf/
[root@bigdata2023master conf]$ vim hive-site.xml
输入以下内容,或直接上传资料包内的hive-site.xml
输入或上传前,注意修改主机名(共三处)如果密码修改注意文件中也要修改
javax.jdo.option.ConnectionURL
jdbc:mysql://bigdata2023master:3306/metastore?useSSL=false
javax.jdo.option.ConnectionDriverName
com.mysql.jdbc.Driver
javax.jdo.option.ConnectionUserName
root
javax.jdo.option.ConnectionPassword
123456
hive.metastore.schema.verification
false
hive.metastore.event.db.notification.api.auth
false
hive.metastore.warehouse.dir
/user/hive/warehouse
hive.metastore.uris
thrift://bigdata2023master:9083
hive.server2.thrift.bind.host
bigdata2023master
hive.server2.thrift.port
10000
登录MySQL,输入密码
[root@bigdata2023master ~]$ mysql -uroot -p
新建hive元数据库
mysql> create database metastore;
mysql> exit;
初始化hive元数据库
[root@bigdata2023master ~]$ schematool -initSchema -dbType mysql -verbose
启动hive
[root@bigdata2023master ~]$ hive
退出hive
hive> exit;
#在所存放脚本的/bin目录下,由于之前创建了脚本路径为/home/leeroot/bin/
#这里首先进入此目录 全局生效的话需要将此路径配置环境变量,具体见该作者Hadoop的安装过程
cd /home/leeroot/bin/
vi hvserver.sh
输入的具体脚本内容为:
#!/bin/bash
if [ $# -lt 1 ]
then
echo "Input No Args!"
echo "请输入 $(basename $0) start/stop/restart/status"
exit;
fi
HIVE_LOG_DIR=$HIVE_HOME/logs
if [ ! -d $HIVE_LOG_DIR ]
then
mkdir -p $HIVE_LOG_DIR
fi
function check_process()
{
pid=$(ps -ef 2>/dev/null | grep -v grep | grep -i $1 | awk '{print $2}')
ppid=$(netstat -nltp 2>/dev/null | grep $2 | awk '{print $7}' | cut -d '/' -f 1)
echo $pid
[[ "$pid" =~ "$ppid" ]] && [ "$ppid" ] && return 0 || return 1
}
function hive_start()
{
metapid=$(check_process HiveMetastore 9083)
cmd="nohup hive --service metastore >$HIVE_LOG_DIR/metastore.log 2>&1 &"
[ -z "$metapid" ] && eval $cmd || echo "Metastroe服务已启动"
server2pid=$(check_process HiveServer2 10000)
cmd="nohup hive --service hiveserver2 >$HIVE_LOG_DIR/hiveServer2.log 2>&1 &"
[ -z "$server2pid" ] && eval $cmd || echo "HiveServer2服务已启动"
}
function hive_stop()
{
metapid=$(check_process HiveMetastore 9083)
[ "$metapid" ] && kill $metapid || echo "Metastore服务未启动"
server2pid=$(check_process HiveServer2 10000)
[ "$server2pid" ] && kill $server2pid || echo "HiveServer2服务未启动"
}
case $1 in
"start")
hive_start
;;
"stop")
hive_stop
;;
"restart")
hive_stop
sleep 3
hive_start
;;
"status")
check_process HiveMetastore 9083 >/dev/null && echo "Metastore服务运行正常" || echo "Metastore服务运行异常"
check_process HiveServer2 10000 >/dev/null && echo "HiveServer2 服务运行正常" || echo "HiveServer2服务运行异常"
;;
*)
echo "Input Args Error!"
echo "请输入 $(basename $0) start/stop/restart/status"
;;
esac
[root@bigdata2023master bin]$ chmod 777 hvservice.sh
hvservice.sh start或stop或restart(重启)或status(查看状态)
启动后需要等待一段时间才可以查看状态