Hive-2.1.0 安装(详细图文)

说明:在CentOS 6.5上安装 hive-2.1.0,前提是hadoop集群已经配置成功。

Step 1: 解压 apache-hive-2.1.0-bin.tar.gz

通过我们之前的任何一种方法把安装包上传到 master 节点上,这里我是上传到了”/usr/hadoop”
Hive-2.1.0 安装(详细图文)_第1张图片
解压:
Hive-2.1.0 安装(详细图文)_第2张图片

Step 2: 添加到环境变量

编辑”/etc/profile”文件:
Hive-2.1.0 安装(详细图文)_第3张图片

添加以下内容:
Hive-2.1.0 安装(详细图文)_第4张图片
并使其生效:
这里写图片描述

Step 3: 安装mysql作为hive的metastore
这一步可以参照我之前的一篇文档,所以此处省略掉了。

默认情况下mysql是不可以远程访问的,我们可以通过以下方式开启远程访问的权限:

mysql> GRANT ALL PRIVILEGES ON *.* TO 'root'@'%'IDENTIFIED BY 'signal' WITH GRANT OPTION;
这句话表示允许"root"用户以"signal"密码进行远程访问
mysql> FLUSH PRIVILEGES;
这句话是使权限生效

Hive-2.1.0 安装(详细图文)_第5张图片
然后重启mysql服务即可。
Hive-2.1.0 安装(详细图文)_第6张图片

Step 4: 配置 hive

启动hadoop集群,在hdfs上创建目录 “/user/hive/warehouse” 和 目录”/tmp”
Hive-2.1.0 安装(详细图文)_第7张图片
此时我们可以通过网页来查看目录是否真的创建成功,在浏览器地址栏输入:”IP:50070”,比如说我的主节点IP为”192.168.38.129”,所以我可以输入”192.168.38.129:50070”
Hive-2.1.0 安装(详细图文)_第8张图片
输入在hdfs上目录的路径即可
Hive-2.1.0 安装(详细图文)_第9张图片

给两个目录的用户组添加写的权限:
hadoop fs -chmod g+w /tmp
hadoop fs -chmod g+w /user/hive/warehouse

将mysql的驱动jar包 mysql-connector-java-5.1.38.jar 拷贝到 hive 的 lib 目录下:
Hive-2.1.0 安装(详细图文)_第10张图片
驱动包是通过maven下载的
Hive-2.1.0 安装(详细图文)_第11张图片

进入到”/usr/hadoop/apache-hive-2.1.0-bin/conf”目录下:
Hive-2.1.0 安装(详细图文)_第12张图片
并修改配置文件:
Hive-2.1.0 安装(详细图文)_第13张图片
Hive-2.1.0 安装(详细图文)_第14张图片
Hive-2.1.0 安装(详细图文)_第15张图片
下面这一项mysql数据库的密码
Hive-2.1.0 安装(详细图文)_第16张图片
Hive-2.1.0 安装(详细图文)_第17张图片
Hive-2.1.0 安装(详细图文)_第18张图片
Hive-2.1.0 安装(详细图文)_第19张图片
Hive-2.1.0 安装(详细图文)_第20张图片

一共修改这8项即可,希望这样也可以锻炼大家对于vim编辑器的掌握。所以这次就不放上文档了。

进入到”/usr/hadoop/apache-hive-2.1.0-bin/bin” 目录下,使用 “schematool” 初始化 metastore 的schema:
Hive-2.1.0 安装(详细图文)_第21张图片

到这里,我们的hive便已经安装成功了,接下来就测试了。
输入 “hive” 即可:
Hive-2.1.0 安装(详细图文)_第22张图片.

当hiveserver2启动之后,我们可以通过多种方式来连接hive,这里介绍一种我经常使用的beeline客户端:
先是启动hiveserver2服务,前提是集群正常运行,并且mysql服务开启:
Hive-2.1.0 安装(详细图文)_第23张图片
之后我们便可以使用beeline客户端登录hive了:
Hive-2.1.0 安装(详细图文)_第24张图片
这样一来我们就可以增删查了^..^

你可能感兴趣的:(BigData)