HIVE集群安装

1.初始准备:

  • 准备3台虚拟机,其IP分别为:
192.168.5.130 s201
192.168.5.131 s202  我在这个服务器上安装的mysql
192.168.5.132 s203
  • 需要安装好JDK,环境生效即可
  • 需要配置好Hadoop并启动
  • 需要安装并配置好Mysql

2.安装Hive

在Apache的官方镜像中我们可以下载Hive的各个版本:https://mirrors.tuna.tsinghua.edu.cn/apache/hive/

此处我们选择最新版Hive_2.3.5

首先下载Hive_2.3.5

cd /usr/local
wget https://mirrors.tuna.tsinghua.edu.cn/apache/hive/stable-2/apache-hive-2.3.5-bin.tar.gz
tar -zxvf apache-hive-2.3.5-bin.tar.gz
mv apache-hive-2.3.5-bin hive-2.3.5

修改环境变量:

vim /etc/profile

# 在尾部添加一下内容
export HIVE_HOME="/usr/local/hive-2.3.5"
export PATH=$PATH:$HIVE_HOME/bin

# 刷新配置
source /etc/profile

HIVE有三种运行模式,此处我们选择远程Mysql模式。设置Hive的核心配置:

vim /hive-2.3.5/conf/hive-site.xml

# 添加以下内容,IP(Master)改为主机IP
<?xml version="1.0" encoding="UTF-8" standalone="no"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
        <property>
                <name>javax.jdo.option.ConnectionURL</name>
                <value>jdbc:mysql://s202:3306/hivedb?createDatabaseIfNotExist=true&amp;characterEncoding=UTF-8&amp;useSSL=false&amp;serverTimezone=GMT</value>
        </property>

        <property>
                <name>javax.jdo.option.ConnectionDriverName</name>
                <value>com.mysql.cj.jdbc.Driver</value>
        </property>

		## 你的Mysql账号
        <property>
                <name>javax.jdo.option.ConnectionUserName</name>
                <value>root</value>
        </property>

		## 你的Mysql密码
        <property>
                <name>javax.jdo.option.ConnectionPassword</name>
                <value>root</value>
        </property>
		
		## 忽略HIVE 元数据库版本的校验,如果非要校验就得进入MYSQL升级版本
        <property>
                <name>hive.metastore.schema.verification</name>
                <value>false</value>
        </property>
        
        <property> 
             <name>hive.cli.print.current.db</name>
             <value>true</value>
        </property>
        
        <property> 
                 <name>hive.cli.print.header</name>
                 <value>true</value>
        </property>
        
		<!-- hiveserver2 -->
        <property>
                 <name>hive.server2.thrift.port</name>
                 <value>10000</value>
        </property>

    	<property>
       		<name>hive.server2.thrift.bind.host</name>
       		<value>Master</value>
     	</property>

</configuration>

把所有${system:java.io.tmpdir} 替换成固定的目录 /usr/local/hive-2.3.5/tmp 如果没有tmp 就建立下文件夹

通过下列连接下载MySQL连接包并放至HIVE的lib目录:

cd $HIVE_HOME/lib
wget https://repo1.maven.org/maven2/mysql/mysql-connector-java/8.0.17/mysql-connector-java-8.0.17.jar

在mysql端执行如下命令创建HIVE的元数据存储库:

create database hivedb;

执行HIVE的初始化工作:

schematool -initSchema -dbType mysql

初始化完成后,在Mysql端使用以下指令查看是否初始化成功:

use hivedb
show tables

若展示出多个数据表,即代表初始化成功。

下面我们使用beeline来使用HIVE,注意若你要使用MR,则可以使用hive。但在新版本中推荐使用beeline,而beeline内置使用了Spark。

首先启动hiveserver2并令其处于挂起状态:

cd ..
nohup hiveserver2>> hiveserver2.log 2>&1 &

如果不使用beeline也可以直接hive命令,操作hive。
到此处我们的HIVE就安装得差不多的,下面我们针对其进行实战操作。

你可能感兴趣的:(大数据hadoop,hive,mysql,big,data)