数据仓库(Data Warehouse )是为企业所有决策制定过程,提供所有系统数据的战略集合
通过对数据仓库中数据的分析,可以帮助企业,改进业务、控制成本、提高产品质量等。
数据仓库,并不是数据的最终目的地,而是为数据最终的目的地做好准备。
这些准备包括对数据的:
项目需求 :
数据采集传输:Flume,DataX , Maxwell , Kafka , Sqoop
数据存储:MySql ,HDFS,HBase,Redis , MongoDB
数据计算:Hive,Spark,Flink , Tez , Strom
数据查询:Presto,Kylin,Impala , DataX
数据可视化:Superset , QuickBI , DataV
任务调度:DolphinScheduler、Azkaban、Oozie
集群监控:Zabbix
元数据管理:Atlas
业务交互数据:业务流程中产生的登录、订单、用户、商品、支付等相关的数据,通常存储在 DB 中,如 : Mysql、Oracle
埋点用户行为数据 : 用户在使用产品过程中 ,与客户端产品交互程中产生的数据 , 如 : 页面浏览、点击、停留、评论、点赞、收藏
Apache:运维麻烦,组件间兼容性需要自己调研。(一般大厂使用,技术实力雄厚,有专业的运维人员)(建议使用)
CDH::国内使用最多的版本,但CM不开源,今年开始要收费,一个节点1万美金
HDP:开源,可以进行二次开发,但是没有CDH稳定,国内使用较少
产品 | 版本 |
---|---|
Java | 1.8 |
Hadoop | 3.1.3 |
Hive | 3.1.2 |
Flume | 1.9.0 |
Zookeeper | 3.5.7 |
Kafka | 2.4.1 |
DataX | 3.0 |
Maxwell | 1.29.2 |
框架选型尽量不要选择最新的框架 , 选择最新框架半年前左右的稳定版
物理机:
云主机:
企业选择 :
(假设:每台服务器 8T 磁盘,128G 内存)
约 8T * 10 台服务器
集群服务器规划 :
服务名称 | 子服务 | 服务器 cpucode101 | 服务器 cpucode102 | 服务器 cpucode103 |
---|---|---|---|---|
HDFS | NameNode | √ | ||
DataNode | √ | √ | √ | |
SecondaryNameNode | √ | |||
Yarn | NodeManager | √ | √ | √ |
Resourcemanager | √ | |||
Zookeeper | Zookeeper Server | √ | √ | √ |
Flume(采集日志) | Flume | √ | √ | |
Flume(消费Kafka) | Flume | √ | ||
Kafka | Kafka | √ | √ | √ |
Hive | Hive | √ | ||
MySQL | MySQL | √ | ||
DataX | DataX | √ | ||
Maxwell | Maxwell | √ | ||
Presto | Coordinator | √ | ||
Worker | √ | √ | √ | |
DolphinScheduler | MasterServer | √ | ||
WorkerServer | √ | √ | √ | |
Druid | Druid | √ | √ | √ |
Kylin | √ | |||
Hbase | HMaster | √ | ||
HRegionServer | √ | √ | √ | |
Superset | √ | |||
Atlas | √ | |||
Solr | Jar | √ | √ | √ |
用户行为日志的内容 : 用户的各项行为信息以及行为所处的环境信息
收集信息的目的 : 优化产品和为各项分析统计指标提供数据支撑
收集这些信息的手段 : 埋点
埋点方式 :
代码埋点 : 通过调用埋点SDK函数,在需要埋点的业务逻辑功能位置调用接口,上报埋点数据。如 : 我们对页面中的某个按钮埋点后,当这个按钮被点击时,可以在这个按钮对应的 OnClick 函数里面调用SDK提供的数据发送接口,来发送数据 ( 业务处理 )
可视化埋点 : 只需要研发人员集成采集 SDK,不需要写埋点代码,业务人员就可以通过访问分析平台的“圈选”功能,来“圈”出需要对用户行为进行捕捉的控件,并对该事件进行命名。圈选完毕后,这些配置会同步到各个用户的终端上,由采集 SDK 按照圈选的配置自动进行用户行为数据的采集和发送 ( 花钱 )
全埋点 : 通过在产品中嵌入SDK,前端自动采集页面上的全部用户行为事件,上报埋点数据,相当于做了一个统一的埋点。然后再通过界面配置哪些数据需要在系统里面进行分析 ( 大公司 )
收集和分析的用户行为信息 :
页面浏览记录 : 记录访客对页面的浏览行为
浏览行为的环境信息 :
用户信息 | 包括用户ID、设备ID |
---|---|
时间信息 | 用户跳入页面的时间 |
地理位置信息 | 用户浏览页面时所处的地理位置 |
设备信息 | 包括设备品牌、设备型号、设备系统 |
应用信息 | 指用户访问的应用信息,例如应用版本 |
渠道信息 | 指应用的下载渠道 |
页面信息 | 用户浏览的页面相关信息,包括页面ID,页面对象 |
动作记录 : 记录的是用户的业务操作行为
业务操作行为的环境信息 :
用户信息 | 包括用户ID、设备ID |
---|---|
时间信息 | 动作时间 |
地理位置信息 | 动作发生时所处的地理位置 |
设备信息 | 设备品牌、设备型号、设备系统 |
应用信息 | 用户访问的应用信息,例如应用版本 |
渠道信息 | 应用的下载渠道 |
动作目标信息 | 动作目标对象相关信息,包括对象类型,对象ID |
曝光记录 : 曝光行为
曝光行为的环境信息 :
用户信息 | 包括甲户ID、设备ID |
---|---|
时间信息 | 曝光时间 |
地理位置信息 | 曝光行为发生时所处的地理位置 |
设备信息 | 设备品牌、设备型号、设备系统 |
应用信息 | 用户访问的应用信息,例如应用版本 |
渠道信息 | 指应用的下载渠道 |
曝光对象信息 | 曝光对象相关信息,包括对象类型,对象ID |
启动记录 : 用户启动应用的行为
启动行为的环境信息 :
用户信息 | 用户ID、设备ID |
---|---|
时间信息 | 启动时间 |
地理位置信息 | 启动时所处的地理位置 |
设备信息 | 设备品牌、设备型号、设备系统 |
应用信息 | 用户访问的应用信息,例如应用版本 |
渠道信息 | 应用的下载渠道 |
启动类型 | 图标和推送 |
开屏广告信息 | 广告ID等信息 |
错误记录 : 记录用户在使用应用过程中的报错行为
报错行为的环境信息 :
日志结构分为两类 :
页面日志 : 以页面浏览为单位,即一个页面浏览记录,生成一条页面埋点日志
一条完整的页面日志包含,一个页面浏览记录,若干个用户在该页面所做的动作记录,若干个该页面的曝光记录,以及一个在该页面发生的报错记录
页面日志环境信息 :
{
"common": { -- 环境信息
"ar": "230000", -- 地区编码
"ba": "iPhone", -- 手机品牌
"ch": "Appstore", -- 渠道
"is_new": "1", --是否首日使用,首次使用的当日,该字段值为1,过了24:00,该字段置为0。
"md": "iPhone 8", -- 手机型号
"mid": "YXfhjAYH6As2z9Iq", -- 设备id
"os": "iOS 13.2.9", -- 操作系统
"uid": "485", -- 会员id
"vc": "v2.1.134" -- app版本号
},
"actions": [{ --动作(事件)
"action_id": "favor_add", --动作id
"item": "3", --目标id
"item_type": "sku_id", --目标类型
"ts": 1585744376605 --动作时间戳
}
],
"displays": [{
"displayType": "query", -- 曝光类型
"item": "3", -- 曝光对象id
"item_type": "sku_id", -- 曝光对象类型
"order": 1, --出现顺序
"pos_id": 2 --曝光位置
},{
"displayType": "promotion",
"item": "6",
"item_type": "sku_id",
"order": 2,
"pos_id": 1
},{
"displayType": "promotion",
"item": "9",
"item_type": "sku_id",
"order": 3,
"pos_id": 3
},{
"displayType": "recommend",
"item": "6",
"item_type": "sku_id",
"order": 4,
"pos_id": 2
},{
"displayType": "query ",
"item": "6",
"item_type": "sku_id",
"order": 5,
"pos_id": 1
}
],
"page": { --页面信息
"during_time": 7648, -- 持续时间毫秒
"item": "3", -- 目标id
"item_type": "sku_id", -- 目标类型
"last_page_id": "login", -- 上页类型
"page_id": "good_detail", -- 页面ID
"sourceType": "promotion" -- 来源类型
},
"err":{ --错误
"error_code": "1234", --错误码
"msg": "***********" --错误信息
},
"ts": 1585744374423 --跳入时间戳
}
启动日志以启动为单位,及一次启动行为,生成一条启动日志
一条完整的启动日志包括一个启动记录,一个本次启动时的报错记录,以及启动时所处的环境信息
{
"common": {
"ar": "370000",
"ba": "Honor",
"ch": "wandoujia",
"is_new": "1",
"md": "Honor 20s",
"mid": "eQF5boERMJFOujcp",
"os": "Android 11.0",
"uid": "76",
"vc": "v2.1.134"
},
"start": {
"entry": "icon", --icon手机图标 notice 通知 install 安装后启动
"loading_time": 18803, --启动加载时间
"open_ad_id": 7, --广告页ID
"open_ad_ms": 3449, -- 广告总共播放时间
"open_ad_skip_ms": 1989 -- 用户跳过广告时点
},
"err":{ --错误
"error_code": "1234", --错误码
"msg": "***********" --错误信息
},
"ts": 1585744304000
}
JDK准备
卸载现有JDK(3台节点)
sudo rpm -qa | grep -i java | xargs -n1 sudo rpm -e --nodeps
在 Linux 系统下的 opt 目录中查看软件包是否导入成功
ls /opt/software/
解压 JDK 到 /opt/module 目录下
tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/
配置JDK环境变量
新建 /etc/profile.d/my_env.sh
文件
sudo vim /etc/profile.d/my_env.sh
添加如下内容,然后保存(:wq)退出
#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_212
export PATH=$PATH:$JAVA_HOME/bin
让环境变量生效
source /etc/profile.d/my_env.sh
测试JDK是否安装成功
java -version
分发JDK
xsync /opt/module/jdk1.8.0_212/
分发环境变量配置文件
sudo /home/cpu/bin/xsync /etc/profile.d/my_env.sh
分别在 cpucode102、cpucode103 上执行 source
source /etc/profile.d/my_env.sh
环境变量配置说明
Linux 的环境变量可在多个文件中配置 :
bash的运行模式 :
login shell 启动时会加载 /etc/profile
,~/.bash_profile
,~/.bashrc
non-login shell 启动时会加载 ~/.bashrc
上传模拟器
将 application.yml
、gmall2020-mock-log-2021-10-10.jar
、path.json
、logback.xml
上传到 cpucode101
的 /opt/module/applog
目录下
创建 applog 路径
mkdir /opt/module/applog
配置文件说明
根据需求生成对应日期的用户行为日志
# 外部配置打开
logging.config: "./logback.xml"
#业务日期
mock.date: "2020-06-14"
#模拟数据发送模式
mock.type: "log"
#mock.type: "http"
#mock.type: "kafka"
#http模式下,发送的地址
mock.url: "http://localhost:8090/applog"
mock:
kafka-server: "hdp1:9092,hdp2:9092,hdp3:9092"
kafka-topic: "ODS_BASE_LOG"
#启动次数
mock.startup.count: 200
#设备最大值
mock.max.mid: 1000000
#会员最大值
mock.max.uid: 1000
#商品最大值
mock.max.sku-id: 35
#页面平均访问时间
mock.page.during-time-ms: 20000
#错误概率 百分比
mock.error.rate: 3
#每条日志发送延迟 ms
mock.log.sleep: 20
#商品详情来源 用户查询,商品推广,智能推荐, 促销活动
mock.detail.source-type-rate: "40:25:15:20"
#领取购物券概率
mock.if_get_coupon_rate: 75
#购物券最大id
mock.max.coupon-id: 3
#搜索关键词
mock.search.keyword: "图书,小米,iphone11,电视,口红,ps5,苹果手机,小米盒子"
# 男女浏览商品比重(35sku)
mock.sku-weight.male: "10:10:10:10:10:10:10:5:5:5:5:5:10:10:10:10:12:12:12:12:12:5:5:5:5:3:3:3:3:3:3:3:3:10:10"
mock.sku-weight.female: "1:1:1:1:1:1:1:5:5:5:5:5:1:1:1:1:2:2:2:2:2:8:8:8:8:15:15:15:15:15:15:15:15:1:1"
配置访问路径,可以根据需求,灵活配置用户访问路径
[
{"path":["home","good_list","good_detail","cart","trade","payment"],"rate":20 },
{"path":["home","search","good_list","good_detail","login","good_detail","cart","trade","payment"],"rate":30 },
{"path":["home","search","good_list","good_detail","login","register","good_detail","cart","trade","payment"],"rate":20 },
{"path":["home","mine","orders_unpaid","trade","payment"],"rate":10 },
{"path":["home","mine","orders_unpaid","good_detail","good_spec","comment","trade","payment"],"rate":5 },
{"path":["home","mine","orders_unpaid","good_detail","good_spec","comment","home"],"rate":5 },
{"path":["home","good_detail"],"rate":20 },
{"path":["home" ],"rate":10 }
]
可配置日志生成路径
<configuration>
<property name="LOG_HOME" value="/opt/module/applog/log" />
<appender name="console" class="ch.qos.logback.core.ConsoleAppender">
<encoder>
<pattern>%msg%npattern>
encoder>
appender>
<appender name="rollingFile" class="ch.qos.logback.core.rolling.RollingFileAppender">
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<fileNamePattern>${LOG_HOME}/app.%d{yyyy-MM-dd}.logfileNamePattern>
rollingPolicy>
<encoder>
<pattern>%msg%npattern>
encoder>
appender>
<logger name="com.atguigu.gmall2020.mock.log.util.LogUtil"
level="INFO" additivity="false">
<appender-ref ref="rollingFile" />
<appender-ref ref="console" />
logger>
<root level="error" >
<appender-ref ref="console" />
root>
configuration>
生成日志
进入到 /opt/module/applog
路径,执行以下命令
java -jar gmall2020-mock-log-2021-10-10.jar
在 /opt/module/applog/log
目录下查看生成日志
ll
集群日志生成脚本
查看环境变量
echo $PATH
在 /usr/local/sbin
目录下创建脚本 lg.sh
在脚本中编写如下内容
#!/bin/bash
for i in cpucode101 cpucode102; do
echo "========== $i =========="
ssh $i "cd /opt/module/applog/; nohup java -jar gmall2020-mock-log-2021-10-10.jar >/dev/null 2>&1 &"
done
/opt/module/applog/
为jar包及配置文件所在路径/dev/null
代表 linux 的空设备文件,所有往这个文件里面写入的内容都会丢失,俗称“黑洞”标准输入0:从键盘获得输入 /proc/self/fd/0
标准输出1:输出到屏幕(即控制台) /proc/self/fd/1
错误输出2:输出到屏幕(即控制台) /proc/self/fd/2
修改脚本执行权限
chmod 777 lg.sh
将 jar 包及配置文件上传至 cpucode102 的 /opt/module/applog/
路径
启动脚本
lg.sh
分别在 cpucode101、cpucode102 的 /opt/module/applog/log
目录上查看生成的数据