Hadoop、Hive实战:淘宝双十一数据分析

本博客内容参考了厦门大学数据库实验室技术文献:http://dblab.xmu.edu.cn/post/8116/

实验准备

     首先非常感谢厦门大学林子雨老师的支持,在经过他的许可之后,我将整个实验的过程以及一些自己的想法写了出来,在这里我并没有讨论spark回头客的预测分析,这在后期spark专栏里会有。

在进行实战之前,我们要确保已经配置好了部分环境:

1、hadoop环境的安装配置

2、hive的安装配置(mysql为元数据库):关于如何配置我在之前的博客说过

3、Sqoop的安装配置:本次实验会讲到

    我使用的是两台阿里云服务器Ubuntu14.0的系统(因为还是学生,价格很优惠),分布式部署了hadoop2.6.5,spark2.4.1(这在后期会用到)。

实验步骤一:本地数据集上传到数据仓库hive

该数据集data_format(点击保存链接:https://pan.baidu.com/s/11HOMXdGw4P6Srnm3T6wGSg提取码:4feo)是淘宝2015年双11前6个月(包含双11)的交易数据(交易数据有偏移,但是不影响实验的结果),里面有三个文件,分别是用户行为日志文件user_log.csv 、回头客训练集train.csv 、回头客测试集test.csv,我们这里主要使用日志文件user_log.csv。

该数据集里的字段主要有:

1、user_id:买家id

2、item_id:商品id

3、cat_id:商品类别id

4、merchant_id:卖家id

5、brand_id:品牌id

6、month:交易时间:月

7、day:交易时间:日

8、action:行为,取值为0表示点击,1表示加入购物车,2表示购买,3表示关注商品

9、age_range:买家年龄分段:1表示年龄<18,2表示年龄在[18,24],3表示年龄在[25,29],4表示年龄在[30,34],5表示年龄在[35,39],6表示年龄在[40,49],7和8表示年龄>50,0和NULL表示未知

10、gender:性别0表示女性,1表示男性,2和NULL表示未知

11、province:收获地址省份

下载完数据集之后,解压并上传到服务器

为了确保数据集有效可以取出user_log.csv的前5条数据测试:

接下来我们进行数据的预处理

1、删除文件第一行记录,这一行数据我们不需要。

Hadoop、Hive实战:淘宝双十一数据分析_第1张图片

2、由于交易数据太大(5000万条),我们截取前100000条数据集作为一个小数据集,写一个脚本完成上面的截取任务,脚本文件放在data目录下和user_log.csv一起

Hadoop、Hive实战:淘宝双十一数据分析_第2张图片

#!/bin/bash

#下面设置输入文件,把用户执行predeal.sh命令时提供的第一个参数作为输入文件名称

infile=$1

#下面设置输出文件,把用户执行predeal.sh命令时提供的第二个参数作为输出文件名称

outfile=$2

#注意!!最后的$infile > $outfile必须跟在}’这两个字符的后面

awk -F "," 'BEGIN{

      id=0;

    }

    {

        if($6==11 && $7==11){

            id=id+1;

            print $1","$2","$3","$4","$5","$6","$7","$8","$9","$10","$11

            if(id==10000){

                exit

            }

        }

    }' $infile > $outfile

进行截取

取前10条数据集测试一下:

head -10 small_user_log.csv

Hadoop、Hive实战:淘宝双十一数据分析_第3张图片

3、导入数据库

下面把small_user_log.csv中的数据集最终导入数据仓库hive中,为了完成这个任务我们首先把这个文件上传到分布式文件系统HDFS中,然后在hive中创建外部表完成数据的导入:

a.启动HDFS

可以选择在hadoop目录下的sbin文件下

./start-dfs.sh

或者直接选择

./start-all.sh

b.把small_user_log.csv上传到HDFS中

把本地系统中的small_user_log.csv上传到分布式文件系统HDFS中,存放在HDFS的“/dbtaobao/dataset”目录下

首先,在本地系统的根目录下创建一个新的目录dbtaobao,并在这个目录下创建一个子目录dataset

然后,把本地系统small_user_log.csv上传到分布式文件系统HDFS的“/dbtaobao/dataset”目录下,命令如下:

下面可以查看一下HDFS的small_user_log.csv的前10条记录

Hadoop、Hive实战:淘宝双十一数据分析_第4张图片

c、在hive上创建数据库

新开一个终端,提前启动mysql数据库,后期会用到

启动hadoop和hive,创建数据库dbtaobao

d、创建外部表

e、查询数据

上面创建外部表时已经成功把HDFS中的“/dbtaobao/dataset/user_log”目录下的small_user_log.csv数据加载到了数据仓库hive中,我们可以使用下面命令查询一下:

Hadoop、Hive实战:淘宝双十一数据分析_第5张图片

实验步骤二:hive数据分析

一、操作hive

使用dbtaobao数据库,显示数据库中所有表,查看user_log表的各种属性

Hadoop、Hive实战:淘宝双十一数据分析_第6张图片

查看表的简单结构

Hadoop、Hive实战:淘宝双十一数据分析_第7张图片

二、简单查询分析

1、查看日志前10个交易日志的商品品牌

Hadoop、Hive实战:淘宝双十一数据分析_第8张图片

2、查询前20个交易日志中购买商品时的时间和商品的种类

Hadoop、Hive实战:淘宝双十一数据分析_第9张图片

三、查询条数统计分析

1、用聚合函数count()计算表内有多少条数据

Hadoop、Hive实战:淘宝双十一数据分析_第10张图片

2、在函数内部加上distinct,查出uid不重复的数据有多少条

Hadoop、Hive实战:淘宝双十一数据分析_第11张图片

3、查询不重复的数据有多少条(为了排除客户刷单情况)

四、关键字条件查询分析

1、以关键字的存在区间为条件的查询

查询双11那天有多少人购买了商品

Hadoop、Hive实战:淘宝双十一数据分析_第12张图片

2、关键字赋予给定值为条件,对其他数据进行分析

取给定时间和给定品牌,求当天购买的此品牌商品的数量

Hadoop、Hive实战:淘宝双十一数据分析_第13张图片

五、根据用户行为分析

1、查询一件商品在某天的购买比例或浏览比例

根据上面语句得到购买数量和点击数量,两个相除即可得到当天该商品的购买率

2、查询双11那天,男女买家购买商品的比例

双十一女性购买商品的数量

双十一男性购买商品的数量

两者相除就得到了要求的比例

3、给定购买商品的数量范围,查询某一天在该网站的该买该数量商品的用户id

Hadoop、Hive实战:淘宝双十一数据分析_第14张图片

六、用户实时查询分析

不同的品牌的浏览次数

Hadoop、Hive实战:淘宝双十一数据分析_第15张图片

实验步骤三:将数据从hive导入到mysql中

一、准备工作:安装Sqoop(可以将数据导入mysql中)

服务器上新建文件夹sqoop,使用xftp上传到sqoop中解压缩

解压缩完成后,添加到环境变量

进入sqoop安装目录下的conf文件夹中执行以下命令复制sqoop-env-template.sh为sqoop-env.sh并在里面添加以下内容

Hadoop、Hive实战:淘宝双十一数据分析_第16张图片

连接数据库之前不要忘记把jar包放到sqoop安装目录下的lib文件夹中,这个jar可以在官网中下载,百度或者谷歌搜索:mysql-connection-java,选择下载的版本,我下载的是mysql-connector-java-5.1.47.zip版本

Hadoop、Hive实战:淘宝双十一数据分析_第17张图片


Hadoop、Hive实战:淘宝双十一数据分析_第18张图片

测试一下:能看到已经读取了mysql中的数据库就说明安装成功,出现warning没有关系,因为没有安装hbase和zookeeper等

Hadoop、Hive实战:淘宝双十一数据分析_第19张图片

二、Hive预操作

1、创建临时表inner_user_log

2、将user_log表中的数据插入到inner_user_log

Hadoop、Hive实战:淘宝双十一数据分析_第20张图片

执行下面命令查询上面的插入命令是否成功执行

Hadoop、Hive实战:淘宝双十一数据分析_第21张图片

三、使用sqoop将数据从hive导入mysql

1、登录到mysql创建数据库

Hadoop、Hive实战:淘宝双十一数据分析_第22张图片
Hadoop、Hive实战:淘宝双十一数据分析_第23张图片

2、创建表

注意:语句中的引号是反引号,不是单引号,sqoop抓数据的时候会把类型转为string类型,所以mysql设计字段的时候,设置为varchar

3、创建完表后,另开一个终端或者退出当前的mysql,进行导入操作

4、返回到刚才的mysql终端或者重新进入mysql查看user_log表中的数据,会得到类似下面的查询结果

Hadoop、Hive实战:淘宝双十一数据分析_第24张图片

说明从hive导入数据到mysql中,成功!

你可能感兴趣的:(Hadoop、Hive实战:淘宝双十一数据分析)