大家好!我是初心,很高兴再次和大家见面。
今天跟大家分享的文章是 Hive的安装以及导入Hdfs的数据到Hive中
,希望能帮助到大家!本篇文章收录于 初心 的 大数据 专栏。
个人主页:初心%个人主页
个人简介:大家好,我是初心,和大家共同努力
欢迎大家:这里是CSDN,我记录知识的地方,喜欢的话请三连,有问题请私信
写作背景
:接着上篇我们说到将 Mysql 中的数据通过 Sqoop 导入到 Hdfs 中去,本次我们将实现将 Hdfs 中的数据导入到 Hive 中。
Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张表,类似于RDBMS(如MySQL、Oracle等),并提供类似于SQL的查询功能。
在Hadoop中,可以简单的概括一下内容:
HDFS: 海量数据存储
MapReduce: 海量数据的分析与计算
Yarn: 集群资源的管理和作业调度
其中MapReduce处理大数据会 面临的问题
有:
MR开发难度大,学习成本高
HDFS文件没有字段名、数据类型,不方便进行数据的管理
使用MR的框架开发,项目周期长,成本高
简单总结:Hive是一个将SQL转换为MR任务的工具
1. 是一个面向主题的、集成的、相对稳定的、反应历史变化的数据集合
2. 目的:构建面向分析的、集成的数据集合,为企业提供决策支持
3. 数据仓库本身不产生数据,数据来源于外部
4. 存储了大量数据
我们使用Xshell加Xftp将Hive的安装包上传到 /opt/software 目录下:
进入到该上传的目录:
cd /opt/software
解压Hive:
tar -xzvf apache-hive-3.1.2-bin.tar.gz -C /opt/module/
进入到module目录下:
cd /opt/module
重命名文件:
mv apache-hive-3.1.2-bin/ hive
我们这里使用的MySQL驱动是 mysql-connector-java-5.1.49.jar 与当前Hive版本相匹配。
同理将mysql-connector-java-5.1.49.jar上传,不过这里上传到 hive 的lib目录下。
这里大家肯定有疑问,为什么要拷贝MySQL驱动?
因为我们这里使用MySQL作为存储元数据的数据库,所以需要把连接MySQL的jar包放入或链接到$HIVE_HOME/lib目录下。如果你奇思妙想,换成其他数据库也是可以的。
进入到 hive 的conf目录:
cd /opt/module/hive/conf/
查看当前文件夹下内容会发现没有hive-site.xml文件,不要慌!这里我们选择新建即可:
vim hive-site.xml
将以下文件内容拷贝到文本编辑器中(因为还有要修改的地方,我会以 注释
的形式说明),修改好后再复制到 hive-site.xml 中去:
<configuration>
<property>
<name>javax.jdo.option.ConnectionURLname>
<value>jdbc:mysql://hadoop102:3307/hive?createDatabaseIfNotExist=truevalue>
<description>JDBC connect string for a JDBC metastoredescription>
property>
<property>
<name>javax.jdo.option.ConnectionDriverNamename>
<value>com.mysql.jdbc.Drivervalue>
<description>Driver class name for a JDBC metastoredescription>
property>
<property>
<name>javax.jdo.option.ConnectionUserNamename>
<value>rootvalue>
<description>username to use against metastore databasedescription>
property>
<property>
<name>javax.jdo.option.ConnectionPasswordname>
<value>skyvalue>
<description>password to use against metastore databasedescription>
property>
<property>
<name>hive.server2.authenticationname>
<value>NONEvalue>
property>
<property>
<name>hive.server2.thrift.bind.hostname>
<value>hadoop102value>
property>
<property>
<name>hive.server2.thrift.portname>
<value>10000value>
property>
configuration>
修改好配置文件后,我们就可以启动 Hive 了!
在启动 Hive 之前,我们还需要启动MySQL,这里我的MySQL安装在了 Docker 中。
sudo systemctl start docker
sudo docker ps -a
sudo docker start 85a041875a9e(刚才拷贝的id)
进入到hive安装目录下,执行以下命令初始化元数据库:
schematool -dbType mysql -initSchema
启动HiveServer2:
$HIVE_HOME/bin/hiveserver2
启动Hive:
hive
cd /opt/module/hadoop-3.1.3/etc/hadoop/
vim core-site.xml
<property>
<name>fs.defaultFSname>
<value>hdfs://hadoop102:8020value>
<description>version of this configuration filedescription>
property>
<property>
<name>hadoop.tmp.dirname>
<value>/opt/module/hadoop-3.1.3/datavalue>
<description>A base for other temporary directories.description>
property>
<property>
<name>hadoop.http.staticuser.username>
<value>skyvalue>
property>
<property>
<name>hadoop.proxyuser.sky.hostsname>
<value>*value>
property>
<property>
<name>hadoop.proxyuser.sky.groupsname>
<value>*value>
property>
进入到hive目录:
cd /opt/module/hive
初始化元数据库:
schematool -dbType mysql -initSchema
create table order_by_province(dt string,
province_id string,
province_name string,
area_code string,
iso_code string,
order_count bigint,
order_amount decimal)
row format delimited
fields terminated by '\t';
使用Load命令从HDFS导入数据刀Hive:
load data inpath '/mysql/gmall_report/order_by_province/*' into table order_by_province;
本文主要讲解了Hive的安装配置及使用,个人感觉还不是很完善,仅供参考哈,有错误欢迎指出。
✨ 这就是今天要分享给大家的全部内容了,我们下期再见!
本文由初心原创,首发于CSDN博客, 博客主页:初心%
我在CSDN等你哦!