数据仓库(Data Warehouse)是一个面向主题的(Subject Oriented)、集成的(Integrated)、相对稳定的(Non-Volatile)、反映历史变化(Time Variant)的数据集合,用于支持管理决策。
数据仓库中的数据相对稳定,大部分情况下不会发变更,存储大量历史数据;
传统数据库一般只存储某一时刻状态信息,不保存历史数据。
select name, orderid from user join order on user.uid=order.uid;
存在一个分组(Group By)操作,其功能是把表Score的不同片段按照rank和level的组合值进行合并,计算不同rank和level的组合值分别有几条记录:
select rank, level ,count(*) as value from score group by rank, level
将Hive解压到/usr/local中
更改名字
更改hive目录所有者和所在用户组
环境配置
使环境生效
启动和关闭mysql服务
service mysql stop
service mysql start
进入mysql shell
sudo mysql 或 sudo mysql –u root –p 命令,回车后会提示输入密码,前者输入当前系统用户密码,后者是输入 mysql root 用户密码一般为空,回车进入 mysql 命令行。这里 root是 mysql 安装时默认创建的用户,不是 Ubuntu 系统的 root 用户。
新建一个数据库用来保存hive元数据(hive_metadata_zqc)
配置mysql允许hive接入
将所有数据库的所有表的所有权限赋给新建的hive_zqc用户,hive_zqc、'hive’是后续操作中要对 hive-site.xml 文件配置的连接到 MySQL 数据库的用户名、密码,由你自己定义;
配置hive
下载mysql jdbc包https://dev.mysql.com/downloads/connector/j/ ;
解压jdbc包后,将其中的jar包拷贝至hive安装目录下lib文件夹中
进入/usr/local/hive/conf 目录。将hive-default.xml.template 重命名为hive-default.xml 保存着各个配置参数的默认值。
新建一个hive-site.xml 配置文件,并添加如下内容,该文件内容会覆盖原默认值
箭头标记处说明:hive_metadata_zqc 是前面步骤 MySQL 里新建的 database、hive_zqc和 hive 是连接数据库的用户名以及密码;
<configuration>
<property>
<name>javax.jdo.option.ConnectionURLname>
<value>jdbc:mysql://localhost:3306/hive_metadata_zqc?createDatabaseIfNotExist=truevalue>
<description>JDBC connect string for a JDBC metastoredescription>
property>
<property>
<name>javax.jdo.option.ConnectionDriverNamename>
<value>com.mysql.jdbc.Drivervalue>
<description>Driver class name for a JDBC metastoredescription>
property>
<property>
<name>javax.jdo.option.ConnectionUserNamename>
<value>hive_zqcvalue>
<description>username to use against metastore databasedescription>
property>
<property>
<name>javax.jdo.option.ConnectionPasswordname>
<value>hivevalue>
<description>password to use against metastore databasedescription>
property>
configuration>
初始化元数据库,启动 Hive,进入 Hive 运行时环境
初始化元数据库,不然有可能会报错。
可能出现错误
原因:com.google.common.base.Preconditions.checkArgument 这是因为 hive 内依赖的 guava.jar 和hadoop内的版本不一致造成的。
解决方法:查看hadoop安装目录下 share/hadoop/common/lib 内 guava.jar 版本,查看 hive安装目录下lib内guava.jar的版本,如果两者不一致,删除版本低的,并拷贝高版本的。
两个版本一样了
在进行一次初始化元数据库
成功了!
启动Hive
启动hive 之前,请先启动hadoop集群(start-dfs.sh)和确保MySQL服务正常运行。“hive”命令启动 hive。
启动hadoop集群
表1 student_zqc:
Name | Sex | Birth | Dept | Uid |
---|---|---|---|---|
Liuyi | F | 2002/11/26 | CS | 180301 |
Chener | F | 2001/6/11 | CS | 180302 |
Zhangsan | M | 2002/9/21 | CS | 180303 |
Lisi | F | 2001/1/26 | SE | 180201 |
表2 grade_zqc:
Uid | Course | Grade |
---|---|---|
180301 | Chinese | 90 |
180301 | Math | 58 |
180301 | English | 39 |
180302 | Chinese | 91 |
180302 | Math | 95 |
180302 | English | 75 |
180303 | Chinese | 60 |
180303 | Math | 58 |
180303 | English | 53 |
180201 | Chinese | 62 |
180201 | Math | 43 |
180201 | English | 74 |
新建一个数据库db_xxx,添加扩展参数:日期、学号、姓名;使用该数据库做后续操作;设置命令行显示当前使用的数据库,请保证后续操作都能显示。
创建的时候添加了日期,学号,姓名,以及存放路径
新建student_xxx分区表(分区字段Dept)和grade_xxx内部表,分别查看表结构和存储路径;(字段类型自定义)
在表student_zqc中添加两个分区Dept=’CS’和Dept=’SE’,从本地导入数据到student_xxx表的两个分区中,分别查看两个分区所有记录,查看表数据存储目录;
LOAD DATA [LOCAL] INPATH 'filepath' [OVERWRITE] INTO TABLE tablename
首先在本地主目录下创建数据文件 input.txt,并上传到 HDFS 中。
注意分隔符要跟你表设置一致。
从HDFS导入数据到grade_xxx表中,查看grade_xxx表所有记录,查看表数据存储目录;
本地创建表 input3.txt
上传到hdfs
加载到hive中
select sex,count(1) from student_zqc group by sex;
select uid,avg(grade) from grade_zqc group by uid;
例如CS系Chinese科目平均成绩在所有系的比例是1.06。
编写一个UDF,函数名UDFXxx,查询学生(输入字段:student_xxx.Birth)出生天数。给出定义和使用UDF的完整流程和截图。
添加包
import org.apache.hadoop.hive.ql.exec.UDF;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.joda.time.DateTime;
import org.joda.time.format.DateTimeFormat;
import org.joda.time.format.DateTimeFormatter;
import java.text.ParseException;
import java.text.SimpleDateFormat;
import java.util.Date;
public class UDFzqc extends UDF{
public final static DateTimeFormatter DEFAULT_DATE_FORMATTER = DateTimeFormat.forPattern("yyyy/MM/dd");
private Text result = new Text();
public Text evaluate(Text birthday) throws ParseException{
DateTime dateTime = null;
try {
dateTime = DateTime.parse(birthday.toString(), DEFAULT_DATE_FORMATTER);
}catch(Exception e) {
return null;
}
return evaluate(dateTime.toDate());
}
public Text evaluate(Date birthday) throws ParseException{
DateTime dateTime = new DateTime(birthday);
return evaluate(new IntWritable(dateTime.getYear()), new IntWritable(dateTime.getMonthOfYear()),
new IntWritable(dateTime.getDayOfMonth()));
}
public Text evaluate(IntWritable year, IntWritable month,IntWritable day) throws ParseException{
result.set(getDays(year.get(), month.get(), day.get()));
return result;
}
private String getDays(int year, int month, int day) throws ParseException{
String s = year + "/" + month + "/" + day;
SimpleDateFormat sdf = new SimpleDateFormat("yyyy/MM/dd");
Date d = sdf.parse(s);
long birthTime = d.getTime();
long nowTime = new Date().getTime();
return (nowTime - birthTime)/1000/3600/24 + " days";
}
public static void main(String[] args) throws ParseException{
UDFzqc test = new UDFzqc();
System.out.println(test.evaluate(new Text("2021/06/01")));
}
}
小生凡一,期待你的关注