Linux 中的 Hive 安装及常用操作

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录

  • 前言
  • 一、Hive是什么?
  • 二、使用步骤
    • 1.Hive的安装
      • 1.下载安装文件
      • 2.配置环境变量
    • 2.安装并配置 Mysql
      • 1.安装 Mysql
      • 2.安装MysqlJDBC 驱动程序
      • 3.在Mysql 中为Hive 新建数据库
      • 4.配置Mysql允许 Hive 接入
      • 5.启动 Hive
  • 总结


前言

随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。


一、Hive是什么?

Hive 是一个基于 Hadoop 的数据仓库工具可以用于对存储在 Hadoop 文件中的数据集进行数据整理、特殊查询和分析处理。Hive 的学习门槛比较低,因为它提供了类似于关系数据库 SOL 语言的查询语言 --HiveL,可以通过 HiveOL 语快速实现简单的MapReduce 统计Hive 自身可以将 HiveOL 语快速转换成 MapReduce 任务进行运行而不必开发专门的 MapReduce 应用程序,因而十分适合数据仓库的统计分析。

二、使用步骤

1.Hive的安装

1.下载安装文件

本文在 windows 系统里,找到官网下载了 3.1.2 版本的 Hive 压缩包,通过 wincpt软件上传到了虚拟机中(注意: 必须把压缩包放到虚拟机的根目录下,不然会出现无法找到文件夹错误)。然后解压到/usr/local/目录下

代码如下:

sudo tar -zxvf ./apache-hive-3.1.2-bin.tar.gz -C /usr/local
cd /usr/ local 
/sudo mv apache-hive-3.1.2-bin hive
sudo chown -R hadoop:hadoop hive

2.配置环境变量

使用 hive 命令启动使用 vim 编辑器打开 /bashrc 文件进行编辑命令如下

vim~/.bashrc

在该文件的最前面一行添加如下内容

export HIVE HOME=/usr/local/hive
export PATH-SPATH:SHIVE HOME/bin

保存该文件并退出 vim 编辑器,然后运行如下命令使得配置立即生效

source ~/. bashrc

2.安装并配置 Mysql

1.安装 Mysql

本文通过以下代码在终端中直接下载 Mysql:

(1) 在安装 MySQL 之前,需要更新一下软件源以获得最新版本

sudo apt-get update

(2) 直接下载安装 Mysql

sudo apt-get install mysgl-server

2.安装MysqlJDBC 驱动程序

此驱动程序需下载方式如前面下载 Hive 方式相同,下载完后用以下命令解压缩文件:

cd~
tar -zxvfmysql-connector-java-8.0.17.tar.gz
cp mysql-connector-java-8.0.17/mysql-connector-java-8.0.17.jar /usr/local/hive/ lib

###3.启动Mysql
执行如下命令启动 MySQL,并进入“mysq>”命令提示符状态:

service mysqlstart
mysql-uroot-p

执行成功如图所示:
Linux 中的 Hive 安装及常用操作_第1张图片

3.在Mysql 中为Hive 新建数据库

执行以下命令建立一个名为 hive 的数据库

mysql>create database hive ;

4.配置Mysql允许 Hive 接入

对 Mvsql 进行权限配置,允许 Hive 连接到 Mysql。

mysql>grantallon*.* to hive@localhost identified by 'hive';
mysql> flushprivileges ;

5.启动 Hive

启动 Hive 之前,需要先启动 Hadoop 集群

cd /usr/ local /hadoop
./ sbin / start -dfs.sh

然后再启动 Hive

cd /usr/local /hive
./ bin/hive

执行成功入图下所示:
在这里插入图片描述


总结

以上就是今天要讲的内容,本文仅仅简单介绍了Hive的使用,而Hive提供了大量能使我们快捷的对数据仓库统计分析。

你可能感兴趣的:(hive,linux,hadoop)