https://www.modb.pro/404?redirect=%2Fdb%2F241289
一、数仓分层
1、ODS层:原始数据层
ODS(O=original D=data S=store)
1)设计要点
存储来自多个业务系统、前端埋点、爬虫获取的一系列数据源的数据。
我们要做三件事:
【1】保持数据原貌不做任何修改,保留历史数据,起到数据备份的作用。
【2】使用lzo压缩。100G的数据压缩之后大概为20G。
【3】创建分区表,防止后续的全表扫描,一般按天存储。
2)ODS层数据组成
【1】前端埋点日志:由kafka或者flume采集到HDFS上
flume采集的语句[flume]参数设置_胖胖学编程的博客-CSDN博客
【2】由前端业务数据库用sqoop采集到HDFS上
3)前端埋点日志的处理
前端埋点日志以JSON格式形式存在
建表语句
createexternaltable ods_flow_ph
(
line string
)
partitioned by (dt string)
Stored as
inputformat 'com.hadoop.mapred.DeprecatedLzoTextInputFormat'
outputformat 'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
;
将flume落盘的数据建立lzo索引,否则无法分片
hadoop jar /opt/module/hadoop-3.1.4/share/hadoop/common/hadoop-lzo-0.4.20.jar \
com.hadoop.compression.lzo.DistributedLzoIndexer \
-Dmapreduce.job.queuename=hive \
/user/hive/warehouse/ods.db/ods_flow_ph/dt=2022-11-11
加载建立好索引的数据
load data inpath '/user/hive/warehouse/ods.db/ods_flow_ph/dt=2022-11-11'intotable ods_flow_ph partition (dt='2022-11-11');
4)MySQL数据库的处理
mysql数据库的表通过sqoop采集到HDFS,使用\t作为分隔符,那ods层的表也要使用\t作为分割符;
5)同步策略
(1)每日增量同步:流量表(ods_flow_ph)
也是埋点表,小时级增量表,所有的埋点数据都汇总在这一张表中。
包括前后端埋点和后端埋点
【1】前端埋点与后端埋点:
前端埋点:不需要网络的,在自己手机app/浏览器/小程序里就能产生的用户行为数据,这些数据会定期上报到服务器。 后端的数据:需要和MySQL交互的数据,例如用户注册的时候,要把用户名密码之类的存道MySQL。
数据时间漂移:用户手机中存的前端的数据会累积到一定条数再发送到服务器,例如80条,假如用户1-1号存了40条就关掉了app,1-2号打开了app,这40条的数据就会变成1-2的了。
举例:用户关注了另一个用户是后端埋点用户关注列表+1,用户上传了一个课程视频是后端埋点,因为要把视频上传到服务器。
既然后端的数据都写入到服务器了,那为什么还需要后端埋点呢?
比如一个用户关注了另一个用户,又取消关注了,这样的话后端的表里就没有这条记录了,但是可以从埋点里面查看到:关注了,并且取消关注了这个行为。这个行为在埋点表设计的时候,还得带用户id,关注了谁的id,这两个字段。
【2】导入方式
如果是用的apache hadoop。用Nginx负载均衡,把数据均匀的发送到日志服务器中。就直接用flume拉取数据,taildir source memory channel hdfs sink。
要是用阿里的dataworks:包括调度+数据集成(从MySQL啥的导数据)+MaxCompute(类似hive,可以写sql) 注:一般用阿里的服务的话还用quickBI做报表展示。就是后端和前端将数据写入到kafka中,然后从kafka中每小时进行数据同步。
(2)每日全量同步:用户表、订单表、看课表、课程表、章节表、教师表、互动表、卡片表
用户维度表:维度表。来自于后端,里面包含了用户的基本信息,例如用户的性别,年龄,生日,星座,职业等等。
课程维度表:记录课程属性信息的维度表。例如课程id 课程名称 课程url 教师id等等。
订单表:由学员购买课程,下单产生记录。
看课表:由学生看课产生的记录,细分为两张表:直播看课记录表、录播看课记录表。
章节表:课程的每一章节信息,例如课程id 课程名称 章节id 章节名称 等。
教师表:存储教师信息
互动表:用户的评论、关注、分享行为
卡片表:课程页面曝光与点击表,由组内其他成员使用spark开发
(3)特殊:一次性拉取,不建分区表(DIM层的父数据)
例如地区表,单位表
2、DIM
dim=dimension。存储为Parquet格式。
1)同步策略
全量同步:课程维度表。首日和每日都是全量先导入到ODS再导入到DIM层。
拉链表:用户维度表
特殊:单位表、地区(自己处理)
2)拉链表
(1)什么是拉链表
用于存储变化,但变化的频率较慢的数据。如果用全量存储,会存储大量重复的数据,因此用拉链表。
(2)每条数据的意义
该条数据的有效时间。
(3)制造拉链表
【1】建表语句
create table dim_user_info(
id string,
user_name string --用户名称,
name string --真实姓名,
phone_num string,
gerder string --性别,
email string,
create_time string --创建时间,
operate_time string --操作时间,
start_date string --开始日期(拉链表特有),
end_date string --结束日期(拉链表特有)
)
partitioned by(dt string)
stored as parquet
table properties("parquet.compression"="lzo")
【2】分区规划
【3】首日装载
要进行初始化,ods层该表第一天从MySQL拉取的所有数据放到9999-99-99分区
insert overwrite table dim.dim_user_info partition(dt='9999-99-99')
select
id,
user_name,
name,
phone_num,
gerder,
email,
create_time,
operate_time,
'2022-19-01' start_date,
'9999-99-99' end_date
from
ods.ods_user_info
where dt='2022-10-01'
【4】每日装载
a)将最新的数据装载到9999-99-99分区
如果new为null(没有变化),则取old
如果new不为null(今天发生了新增及变化),则取new
select
if(new.id is not null,new.id,old.id) id,
if(new.user_name is not null,new.user_name,old.user_name) user_name,
if(new.name is not null,new.name,old.name) name,
if(new.phone_num is not null,new.phone_num,old.phone_num) num,
if(new.gerder is not null,new.gerder,old.gerder) gerder,
if(new.email is not null,new.email,old.email) nemail,
if(new.create_time is not null,new.create_time,old.create_time) create_time ,
if(new.operate_time is not null,new.operate_time,old.operate_time) operate_time,
if(new.start_date is not null,new.start_date,old.start_date) start_date,
if(new.end_date is not null,new.end_date,old.end_date) end_date
(
select
id,
user_name,
name,
phone_num,
gerder,
email,
create_time,
operate_time,
'2022-19-01' start_date,
'9999-99-99' end_date
from
dim.dim_user_info
where dt='9999-99-99'
)ods
full join
(
select
id,
user_name,
name,
phone_num,
gerder,
email,
create_time,
operate_time,
'2022-10-01' start_date,
'9999-99-99' end_date --新增及变化的数据都是最新数据
from
ods.ods_user_info --ods_user_info表是每日增量导入的
where dt='2022-10-01' --新增及变化的数据
)new
on ods.id=new.id
b)将过期数据装载到前一天的分区(注意日期之间没有重合)
new和old都有的数据取old
select
old.id id,
old.user_name user_name,
old.name name,
old.phone_num num,
old.gerder gerder,
old.email nemail,
old.create_time create_time ,
old.operate_time operate_time,
old.start_date start_date,
old.end_date end_date
(
select
id,
user_name,
name,
phone_num,
gerder,
email,
create_time,
operate_time,
'2022-19-01' start_date,
'9999-99-99' end_date
from
dim.dim_user_info
where dt='9999-99-99'
)ods
full join
(
select
id,
user_name,
name,
phone_num,
gerder,
email,
create_time,
operate_time,
'2022-10-01' start_date,
'9999-99-99' end_date --新增及变化的数据都是最新数据
from
ods.ods_user_info --ods_user_info表是每日增量导入的
where dt='2022-10-01' --新增及变化的数据
)new
on ods.id=new.id
where new.id is not null and old.id is not null
;
(4)对拉链表进行查询
【1】获取在某天有效的所有用户的数据
--获取2019-01-01有效的所有历史数据
select * from user_info where start_date<='2019-01-01' and end_date>='2019-01-01';
【2】获取目前所有用户的最近数据
select * from user_info where end_date>='9999-99-99';
3、DWD层
dwd=data warehouse detail
1)说明
dwd层是对事实表的处理,代表的是业务的最小粒度层,任何数据的记录都可以从这一层获取,为后续的dws和dwt层做准备。
dwd层是站在选择好事实表的基础上,对维度建模的视角。
2)对埋点数据进行处理
将流量表(ods_flow_ph)表唯一的字段line这个json串进行解析,解析成一个字段一个字段的。
3)对业务数据进行处理
【1】周期快照事实表
除了流量表以外的表都是从MySQL导入进来的。
103-尚硅谷-数仓搭建-DWD层优惠券领用事实表_哔哩哔哩_bilibili
一个知识点:累计快照事实表(没看完)
如:优惠券领用,这种发生周期变化的场景
createtable dwd_coupun_use(
coupun_id string, --优惠券id
user_id string, --用户id
coupun_status string, --优惠券状态
using_time string, --使用时间(下单)
used_time string, --使用时间(支付)
expire_time string --过期时间
)
partitioned by(dt string)
;
4、dim和dwd
DIM和DWD采用维度建模,一般采用星型模型,呈现状态一般为星座模型。详情见维度建模的步骤。
5、dws、dwt、ads
dws= data warehouse service
dwt=data warehosue topic
ads=application data store
dws、dwt、ads都是以需求为驱动的,和纬度建模已经没有关系了。
dws、dwt:统称为宽表层,这两层的设计思想大致相同,通过以下案例进行说明:
1)问题引出
两个需求,统计每个省份订单的个数、统计内个省份订单的总金额
2)处理办法
都是将省份和订单表进行join,group by省份,然后计算,同样的数据被计算了两次,实际上类似的场景还有很多,那怎么设计才能避免重复计算呢?针对上述场景可以设计一张地区表,其主键为地区ID,字段为:下单次数,下单金额,支付次数,支付金额等,上述所有指标统一进行计算,并将结果保存在该宽表中,这样就能有效避免数据的重复计算。
3)需要那些宽表(主题表):以维度为基准
4)DWS和DWT层的区别:
DWS层存放所有当天的汇总行为,例如每个地区当天下单次数,下单金额等,dwt层存放的是所有主题对象的累计行为,例如每个地区最近7天(15天、30天、60天)的下单次数,下单金额等。
5)ads层:存储各个报表需要的结果。