Linux下安装Hive

文章目录

    • 1. 确保linux环境下mysql已安装
    • 2. 上传安装包
    • 3. 解压安装包
    • 4. 修改目录名称
    • 5. 配置环境变量
    • 6. 解压日志jar包冲突
    • 7. 拷贝mysql驱动jar包
    • 8. 配置hive的参数文件
    • 9. 增加hadoop的配置参数
    • 10.在mysql中进行相关配置
    • 11. 初始化hive的元数据库

1. 确保linux环境下mysql已安装

Linux下安装mysql:https://blog.csdn.net/m0_48170265/article/details/130244960

2. 上传安装包

上传安装包apache-hive-3.1.2-bin.tar.gz到/opt/install_packages

Linux下安装Hive_第1张图片

创建文件夹/opt/jar,并上传安装包mysql-connector-java-5.1.37.jar到/opt/jar

3. 解压安装包

--切换目录
cd /opt/install_packages
--执行解压命令
tar -zxvf apache-hive-3.1.2-bin.tar.gz -C /opt/softs

4. 修改目录名称

--切换目录
cd /opt/softs
--执行修改命令
mv apache-hive-3.1.2-bin hive3.1.2

Linux下安装Hive_第2张图片

5. 配置环境变量

vim /etc/profile
-- 添加如下内容后保存退出

##HIVE_HOME
export HIVE_HOME=/opt/softs/hive3.1.2
export PATH=$PATH:$HIVE_HOME/bin

-- 添加环境变量后再执行
source /etc/profile

6. 解压日志jar包冲突

-- 切换目录
cd /opt/softs/hive3.1.2/lib
-- 执行修改命令
mv log4j-slf4j-impl-2.10.0.jar log4j-slf4j-impl-2.10.0.jar_bak

7. 拷贝mysql驱动jar包

上传mysql-connector-java-5.1.37.jar到/opt/jar

-- 执行拷贝命令
cp /opt/jar/mysql-connector-java-5.1.37.jar /opt/softs/hive3.1.2/lib

8. 配置hive的参数文件

-- 切换到hive配置目录
cd /opt/softs/hive3.1.2/conf
-- 配置参数文件
vim hive-site.xml

hive-site.xml中配置(URL、username、password的参数按自己的实际情况填):



<configuration>
  <property>
  
    <name>javax.jdo.option.ConnectionURLname>
    <value>jdbc:mysql://bigdata03:3306/hive?createDatabaseIfNotExist=truevalue>
  property>
  
  <property>
    <name>javax.jdo.option.ConnectionDriverNamename>
    <value>com.mysql.jdbc.Drivervalue>
  property>
  
  <property>
    <name>javax.jdo.option.ConnectionUserNamename>
    <value>rootvalue>
  property>
  
  <property>
    <name>javax.jdo.option.ConnectionPasswordname>
    <value>111111value>
  property>
   
  <property>
	<name>hive.metastore.warehouse.dirname>
	<value>/user/hive/warehousevalue>
   property>
    
  <property>
	<name>hive.server2.thrift.bind.hostname>
    <value>bigdata03value>
  property>
	 
  <property>
	<name>hive.server2.thrift.portname>
    <value>10000value>
  property>
  
  <property>
    <name>hive.server2.enable.doAsname>
    <value>falsevalue>
  property>
   
configuration>

9. 增加hadoop的配置参数

在$HADOOP_HOME/etc/hadoop 下配置core-site.xml

中添加:

--增加如下的配置项

	
	<property>
		<name>hadoop.proxyuser.root.hostsname>
		<value>*value>
	property>
	<property>
		<name>hadoop.proxyuser.root.groupsname>
		<value>*value>
	property>

Linux下安装Hive_第3张图片

再将core-site.xml远程分发到另外两台bigda04,bigdata05虚拟机。

scp /opt/softs/hadoop3.1.3/etc/hadoop/core-site.xml root@bigdata04:/opt/softs/hadoop3.1.3/etc/hadoop/

scp /opt/softs/hadoop3.1.3/etc/hadoop/core-site.xml root@bigdata04:/opt/softs/hadoop3.1.3/etc/hadoop/

再在两台虚拟机上分别查看

 cat /opt/softs/hadoop3.1.3/etc/hadoop/core-site.xml

Linux下安装Hive_第4张图片
Linux下安装Hive_第5张图片
Linux下安装Hive_第6张图片

10.在mysql中进行相关配置

-- 启动mysql服务
systemctl start mysqld

-- 用root用户登录mysql
mysql -uroot -p

-- 创建数据库名为hive的数据
create database hive;

-- 查看数据库
show databases;

-- 退出mysql命令行
quit;

Linux下安装Hive_第7张图片

11. 初始化hive的元数据库

schematool命令:

cd /opt/softs/hive3.1.2/bin/
ll
schematool -dbType mysql --initSchema

Linux下安装Hive_第8张图片

mysql -uroot -p
use hive;
show tables;

Linux下安装Hive_第9张图片

你可能感兴趣的:(Linux,大数据,hive,linux,hadoop)