Hadoop学习(12)-- Hadoop生态综合案例-陌陌聊天数据分析

1 陌陌聊天数据分析案例需求

1.1 目标

基于Hadoop和Hive实现聊天数据统计分析,构建聊天数据分析报表。
Hadoop学习(12)-- Hadoop生态综合案例-陌陌聊天数据分析_第1张图片

1.2 需求

  • 统计今日总消息量
  • 统计今日每小时消息量、发送和接收用户数
  • 统计今日各地区发送消息数据量
  • 统计今日发送消息和接收消息的用户数
  • 统计今日发送消息最多的Top10用户
  • 统计今日接收消息最多的Top10用户
  • 统计发送人的手机型号分布情况
  • 统计发送人的设备操作系统分布情况

1.3 数据内容

  • 数据大小:两个文件共14万条数据
  • 列分隔符:制表符 \t
  • 数据字典及样例数据

在这里插入图片描述

2 基于Hive数仓使用SQL实现需求开发

2.1 建库建表、加载数据

2.1.1 建库建表

--如果数据库已存在就删除
drop database if exists db_msg cascade ;
--创建数据库
create database db_msg ;
--切换数据库
use db_msg ;
--列举数据库
show databases ;

--如果表已存在就删除
drop table if exists db_msg.tb_msg_source ;
--建表
create table db_msg.tb_msg_source(
msg_time string comment "消息发送时间"
, sender_name string comment "发送人昵称"
, sender_account string comment "发送人账号"
, sender_sex string comment "发送人性别"
, sender_ip string comment "发送人ip地址"
, sender_os string comment "发送人操作系统"
, sender_phonetype string comment "发送人手机型号"
, sender_network string comment "发送人网络类型"
, sender_gps string comment "发送人的GPS定位"
, receiver_name string comment "接收人昵称"
, receiver_ip string comment "接收人IP"
, receiver_account string comment "接收人账号"
, receiver_os string comment "接收人操作系统"
, receiver_phonetype string comment "接收人手机型号"
, receiver_network string comment "接收人网络类型"
, receiver_gps string comment "接收人的GPS定位"
, receiver_sex string comment "接收人性别"
, msg_type string comment "消息类型"
, distance string comment "双方距离"
, message string comment "消息内容" )
--指定分隔符为制表符
row format delimited fields terminated by '\t' ;

2.1.2 加载数据

HDFS上创建目录
hdfs dfs -mkdir -p /momo/data
上传到HDFS
hdfs dfs -put /export/data/data1.tsv /momo/data/
hdfs dfs -put /export/data/data2.tsv /momo/data/

加载到Hive表中
load data inpath '/momo/data/data1.tsv' into table db_msg.tb_msg_source;
load data inpath '/momo/data/data2.tsv' into table db_msg.tb_msg_source;

验证结果
select 
msg_time,sender_name,sender_ip,sender_phonetype,receiver_name,receiver_network 
from tb_msg_source limit 10;

2.2 ETL数据清洗

2.2.1 原始数据内容

数据来源:聊天业务系统中导出的2021年11月01日一天24小时的用户聊天数据,以TSV文本形式存储在文件中。
Hadoop学习(12)-- Hadoop生态综合案例-陌陌聊天数据分析_第2张图片

2.2.2 数据问题

  • 问题1:当前数据中,有一些数据的字段为空,不是合法数据。
  • 问题2:需求中,需要统计每天、每个小时的消息量,但是数据中没有天和小时字段,只有整体时间字段,不好处理。
  • 问题3:需求中,需要对经度和维度构建地区的可视化地图,但是数据中GPS经纬度为一个字段,不好处理。

2.2.3 ETL需求

  • 需求1:对字段为空的不合法数据进行过滤
    Where过滤
  • 需求2:通过时间字段构建天和小时字段
    Substr函数
  • 需求3:从GPS的经纬度中提取经度和维度
    Split函数
  • 需求4:将ETL以后的结果保存到一张新的Hive表中
    Create table …… as select ……

2.2.4 ETL实现

--如果表已存在就删除
drop table if exists db_msg.tb_msg_etl;
--将Select语句的结果保存到新表中
create table db_msg.tb_msg_etl as
select
*,
substr(msg_time,0,10) as dayinfo, substr(msg_time,12,2) as hourinfo, --获取天和小时
split(sender_gps,",")[0] as sender_lng, split(sender_gps,",")[1] as sender_lat --提取经度纬度
from db_msg.tb_msg_source
--过滤字段为空的数据
where length(sender_gps) > 0 ;

查看结果

select
msg_time,dayinfo,hourinfo,sender_gps,sender_lng,sender_lat
from db_msg.tb_msg_etl
limit 10;

2.3 需求指标统计

2.3.1 指标1:统计今日消息总量

--保存结果表
create table if not exists tb_rs_total_msg_cnt 
comment "今日消息总量"
as
select 
dayinfo,
count(*) as total_msg_cnt
from db_msg.tb_msg_etl
group by dayinfo;

2.3.2 指标2:统计每小时消息量、发送和接收用户数

--保存结果表
create table if not exists tb_rs_hour_msg_cnt 
comment "每小时消息量趋势"
as
select 
dayinfo,
hourinfo,
count(*) as total_msg_cnt,
count(distinct sender_account) as sender_usr_cnt,
count(distinct receiver_account) as receiver_usr_cnt
from db_msg.tb_msg_etl
group by dayinfo,hourinfo;

2.3.3 指标3:统计今日各地区发送消息总量

--保存结果表
create table if not exists tb_rs_loc_cnt
comment "今日各地区发送消息总量"
as
select 
dayinfo,
sender_gps,
cast(sender_lng as double) as longitude,
cast(sender_lat as double) as latitude,
count(*) as total_msg_cnt
from db_msg.tb_msg_etl
group by dayinfo,sender_gps,sender_lng,sender_lat;

2.3.4 指标4:统计今日发送和接收用户人数

--保存结果表
create table if not exists tb_rs_usr_cnt
comment "今日发送消息人数、接受消息人数"
as
select 
dayinfo,
count(distinct sender_account) as sender_usr_cnt,
count(distinct receiver_account) as receiver_usr_cnt
from db_msg.tb_msg_etl
group by dayinfo;

2.3.5 指标5:统计发送消息条数最多的Top10用户

--保存结果表
create table if not exists tb_rs_susr_top10
comment "发送消息条数最多的Top10用户"
as
select 
dayinfo,
sender_name as username,
count(*) as sender_msg_cnt
from db_msg.tb_msg_etl
group by dayinfo,sender_name
order by sender_msg_cnt desc
limit 10;

2.3.6 指标6:统计接收消息条数最多的Top10用户

--保存结果表
create table if not exists tb_rs_rusr_top10
comment "接受消息条数最多的Top10用户"
as
select 
dayinfo,
receiver_name as username,
count(*) as receiver_msg_cnt
from db_msg.tb_msg_etl
group by dayinfo,receiver_name
order by receiver_msg_cnt desc
limit 10;

2.3.7 指标7:统计发送人的手机型号分布情况

--保存结果表
create table if not exists tb_rs_sender_phone
comment "发送人的手机型号分布"
as
select 
dayinfo,
sender_phonetype,
count(distinct sender_account) as cnt
from tb_msg_etl
group by dayinfo,sender_phonetype;

2.3.8 指标8:统计发送人的操作系统分布

--保存结果表
create table if not exists tb_rs_sender_os
comment "发送人的OS分布"
as
select 
dayinfo,
sender_os,
count(distinct sender_account) as cnt
from tb_msg_etl
group by dayinfo,sender_os;

3 基于FineBI实现可视化报表

3.1 FineBI的介绍及安装

  • FineBI 是帆软软件有限公司推出的一款商业智能(Business Intelligence)产品。FineBI 是定位于自助大数据分析的 BI 工具,能够帮助企业的业务人员和数据分析师,开展以问题导向的探索式分析。
  • FineBI的特点
    • 通过多人协作来实现最终的可视化构建
    • 不需要通过复杂代码来实现开发,通过可视化操作实现开发
    • 适合于各种数据可视化的应用场景
    • 支持各种常见的分析图表和各种数据源
    • 支持处理大数据

3.2 FineBI配置数据源及数据准备

  • FineBI与Hive集成的官方文档

3.2.1 驱动配置

  • 问题:如果使用FineBI连接Hive,读取Hive的数据表,需要在FineBI中添加Hive的驱动jar包。
  • 解决:将Hive的驱动jar包放入FineBI的lib目录下。
找到提供的【Hive连接驱动】

Hadoop学习(12)-- Hadoop生态综合案例-陌陌聊天数据分析_第3张图片

放置

将这些文件放入FineBI的安装目录下的:webapps\webroot\WEB-INF\lib目录中。

3.2.2 插件安装

  • 问题:我们自己放的Hive驱动包会与FineBI自带的驱动包产生冲突,导致FineBI无法识别我们自己的驱动包。
  • 解决:安装FineBI官方提供的驱动包隔离插件。
找到隔离插件

Hadoop学习(12)-- Hadoop生态综合案例-陌陌聊天数据分析_第4张图片

安装插件

Hadoop学习(12)-- Hadoop生态综合案例-陌陌聊天数据分析_第5张图片

重启FineBI

3.2.3 构建连接

新建连接

Hadoop学习(12)-- Hadoop生态综合案例-陌陌聊天数据分析_第6张图片
Hadoop学习(12)-- Hadoop生态综合案例-陌陌聊天数据分析_第7张图片

配置连接

Hadoop学习(12)-- Hadoop生态综合案例-陌陌聊天数据分析_第8张图片

3.2.4 数据准备

新建分组

Hadoop学习(12)-- Hadoop生态综合案例-陌陌聊天数据分析_第9张图片

添加业务包

Hadoop学习(12)-- Hadoop生态综合案例-陌陌聊天数据分析_第10张图片

添加表

Hadoop学习(12)-- Hadoop生态综合案例-陌陌聊天数据分析_第11张图片
Hadoop学习(12)-- Hadoop生态综合案例-陌陌聊天数据分析_第12张图片

更新业务包

Hadoop学习(12)-- Hadoop生态综合案例-陌陌聊天数据分析_第13张图片

你可能感兴趣的:(大数据,hive,hadoop,FineBI)