注:此处部署HIVE主机IP为192.168.17.234
$ wget https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-2.3.4/apache-hive-2.3.4-bin.tar.gz
$ tar -zxvf ./apache-hive-2.3.4-bin.tar.gz -C /user/local/
$ cd /usr/local
$ mv apache-hive-2.3.4-bin/ hive
$ vi /root/.bashrc
编辑在.bashrc中添加如下内容
# /usr/hdp/current/hadoop-client 为 Hadoop 目录
export PATH=$PATH:/usr/hdp/current/hadoop-client/sbin:/usr/hdp/current/hadoop-client/sbin:/usr/local/hive/bin
export HIVE_HOME=/usr/local/hive
export PATH=$PATH:$HIVE_HOME/bin
保存后,执行
$ source /root/.bashrc
环境变量生效
将hive-default.xml.template 重命名为hive-default.xml
$ mv hive-default.xml.template hive-default.xml
新建一个配置文件hive-site.xml并编辑
$ vi hive-site.xml
注意,第三部分
同样,第四部分
配置如下
将hive-env.sh.template重命名为hive-env.sh
$ mv hive-env.sh.template hive-env.sh
编辑在hive-env.xml添加:
# Hadoop的位置:
HADOOP_HOME=/usr/hdp/current/hadoop-client
# hive的conf目录位置:
export HIVE_CONF_DIR=/usr/local/hive/conf
# hive的lib目录位置:
export HIVE_AUX_JARS_PATH=/usr/local/hive/lib
由于hive-site.xml配置中连接的mysql在192.168.17.235,所以安装mysql在地址的主机上。
命令如下
yum -y install mysql-server
启动mysql服务
service mysqld start
免密登录
$mysql -uroot
进入mysql shell后授予权限hadoop,密码123456
mysql> GRANT ALL ON *.* TO 'hadoop'@'%' IDENTIFIED BY '123456';
# 配置成功,回显:
Query OK, 0 rows affected, 1 warning (0.02 sec)
#能够在本地进行mysql shell登录
mysql> GRANT ALL ON *.* TO 'hadoop'@'localhost' IDENTIFIED BY '123456';
mysql>update user set host='%' where user='haddop';
Query OK, 0 rows affected (0.03 sec)
mysql> flush privileges;
Query OK, 0 rows affected (0.07 sec)
# 退出:
mysql> exit;
# 退出成功,回显:
Bye
重启服务
$ systemctl restart mysqld.service
之后可以以hadoop用户(非授权用户需要 sudo 指令)登录
$ mysql -uhadoop -p123456
将mysql驱动导入 到17.234/usr/local/hive/lib/目录下
从主机ambari-server那台执行如下命令拷贝mysql驱动192.168.17.234的hive的lib下
$ scp /usr/share/java/mysql-connector-java.jar 192.168.17.234:/usr/local/hive/lib
在hdfs上创建相关仓库,并配置权限:
若未启动hadoop,需要在BDM上先启动hdfs、yarn、mapreduce
$ hdfs dfs -mkdir -p /user/hive/warehouse
$ hdfs dfs -mkdir -p /user/hive/tmp
$ hdfs dfs -mkdir -p /user/hive/log
$ hdfs dfs -chmod -R 777 /user/hive/warehouse
$ hdfs dfs -chmod -R 777 /user/hive/tmp
$ hdfs dfs -chmod -R 777 /user/hive/log
$ cd /usr/local/hive/bin
$ schematool -initSchema -dbType mysql
回显如下成功
schemaTool completed
$ useradd -g hadoop hive234
$ chown -R hive234:hadoop /usr/local/hive
修改hdfs hdfs-site中dfs.permissions.enabled配置成false
由于hive用户为hive234所以还需hdfs自定义core-site中增加配置如下
hadoop.proxyuser.hive234.hosts=*
hadoop.proxyuser.hive234.groups=*
$ su hive234
$ nohup hive --service metastore > /dev/null 2>&1 &
$ nohup hive --service hiveserver2 > /dev/null 2>&1 &
$ useradd -g hadoop hive234
从17.234上拷贝hive到17.235相同目录下
在17.234上输入一下命令
$ scp -r /usr/local/hive 192.168.17.235:/usr/local/
提示输入17.234的root的密码后等待传输完成即可
$ vi /usr/local/hive/conf/hive-site.xml
将其中配置
修改成tchao3.lw
$ vi /root/.bashrc
编辑在.bashrc中添加如下内容
# /usr/hdp/current/hadoop-client 为 Hadoop 目录
export PATH=$PATH:/usr/hdp/current/hadoop-client/sbin:/usr/hdp/current/hadoop-client/sbin:/usr/local/hive/bin
export HIVE_HOME=/usr/local/hive
export PATH=$PATH:$HIVE_HOME/bin
保存后,执行
$ source /root/.bashrc
环境变量生效
修改17.235上hive权限
$ chown -R hive234:hadoop /usr/local/hive
$ su hive234
$ nohup hive --service metastore > /dev/null 2>&1 &
$ nohup hive --service hiveserver2 > /dev/null 2>&1 &