BIAPPS开发

BIAPPS开发概要

1.         搭建数据仓库
2.         数据抽取(ETL)
3.         搭建数据模型
4.         搭建报表系统

数据仓库

数据仓库(Data Warehouse)是一个面向主题的(Subject Oriented)、集成的(Integrated)、相对稳定的(Non-Volatile)、反映 历史 变化(Time Variant)的数据集合,用于支持管理决策(Decision Making Support)。
详见百度百科。

数据集市
    数据集市(Data Mart) ,也叫数据市场,是一个从操作的数据和其他的为某个特殊的专业人员团体服务的数据源中收集数据的仓库。从范围上来说,数据是从企业范围的数据库、数据仓库,或者是更加专业的数据仓库中抽取出来的。
在常见开发中体现为在数据仓库表的一些聚合。

CREATE BITMAP INDEX
SSE_ROLE(角色创建)

--创建Role,并分配权限

create role SSE_ROLE;

grant connect,resource to SSE_ROLE;


ETL

biappsETL过程中,有使用到Stage层,其实Stage层就是一些临时表内容,用于临时存储一些需要处理的数据。

因为时间维的数据不会随着时间的推移而发生变化,这里就再为时间维创建Stage临时表了。


Target load type:Normal和bulk有什么区别?

bulk适合大量数据的插入,此方式将绕过数据库的 log记录,以此来提高数据库Load性能,因此Bulk方式也就不可能进行Rollback操作,也不可能使用数据库作Recover操作。Bulk方式主要是进行大数据量Insert的操作时选用,换句话说就是不做Update,所以有时候需要选择normal

http://www.educity.cn/develop/693815.html


WID

一般是将其他表的主键(这个主键一般也是ROW_WID其本质是sequence)设置为_WID自己这张表则使用sequence作为ROW_WID,在SIL层进行WID的转换(维表也可能在SDE转换)事实表的维表代理键使用lookup组件进行关联写入(可见下图事实表)SDE和DIL实际上是在同一个用户下


增量和全量

从EBS源抽取数据的SDE过程的增量( 这个增量过程的过滤条件可以在工作流的映射SQ中的Source Filter中写代码或者在 Sql Query中写代码实际上是在Source Qualifier)全量是用 CUX_OM_CN_DOWN_USE_HEADER_ALL.LAST_UPDATE_DATE >=  TO_DATE(' $$LAST_EXTRACT_DATE ', 'MM/DD/YYYY HH24:MI:SS'), 区分即 时间戳方式 ,变量在DAC中维护
具体增量和全量的运行体现在不同的会话,运行全量时可以将增量的过滤条件拿掉或者在sql query中去掉where条件或者就是truncate目标跑数按增量的方式跑数,所以一般都是使用增量的Mapping,无论增量还是全量SDE过程都会truncate表

SIL是从中间表到目标表的过程用 UPDATE_FLAG标识在目标表里面数据是否存在即 全表比对方式;有的时候SIL层的增量和全量是一样的,区分在于是否truncate,前提是要使用更新组件
全量则只需在新的会话中放开这些过滤条件即可。

----------------------------------------------------------------------------------------
LAST_UPDATE_DATE->CHANGED_ON_DT为主表更新日期(SDE)
AUX X _CHANGED_ON_DT用于捕捉各个源表的LAST_UPDATE_DATE(SDE)

update_flag字段(SIL)
The update flag is evaluated using logic, the English description of which is as follows:
Basic Checks:
If the current ETL Process Identifier is same as target record's ETL Process Identifier, then it is already loaded and hence no processing required (result X for Reject) - STOP.
If stage reject flag = Y, then no processing (result X for Reject) - STOP.
Checks for new records (where target's ETL Process Identifier is NULL) :
If stage delete flag = Y, then insert record and mark it for soft-delete (result B for insert with soft-delete) - STOP.
If stage delete flag <> Y, insert into target (result I for Insert) - STOP.
Checks for existing record

IIF(LKP_ETL_PROC_WID = ETL_PROC_WID, 'X',
IIF(REJECT_FLG = 'Y','X',
IIF(ISNULL(LKP_ETL_PROC_WID),
IIF(DELETE_FLG = 'Y','B','I'),
IIF(INSERT_ONLY_FLG = 'Y', 'X',
IIF(DELETE_FLG = 'Y',
IIF(LKP_DELETE_FLG = 'Y', 'X', 'D'),
IIF(SYSTEMS_COLS_DIFF = 'Y', 'U','X'))))))

SYSTEMS_COLS_DIFF
IIF(DECODE(CHANGED_ON_DT, NULL, SESSSTARTTIME, CHANGED_ON_DT) !=
DECODE(LKP_CHANGED_ON_DT, NULL, SESSSTARTTIME, LKP_CHANGED_ON_DT), 'Y',
IIF(DECODE(AUX1_CHANGED_ON_DT, NULL, SESSSTARTTIME, AUX1_CHANGED_ON_DT) !=
DECODE(LKP_AUX1_CHANGED_ON_DT, NULL, SESSSTARTTIME, LKP_AUX1_CHANGED_ON_DT), 'Y',
IIF(DECODE(AUX2_CHANGED_ON_DT, NULL, SESSSTARTTIME, AUX2_CHANGED_ON_DT) !=
DECODE(LKP_AUX2_CHANGED_ON_DT, NULL, SESSSTARTTIME, LKP_AUX2_CHANGED_ON_DT), 'Y',
IIF(DECODE(AUX3_CHANGED_ON_DT,NULL, SESSSTARTTIME, AUX3_CHANGED_ON_DT) !=
DECODE(LKP_AUX3_CHANGED_ON_DT, NULL, SESSSTARTTIME, LKP_AUX3_CHANGED_ON_DT), 'Y',
IIF(DECODE(AUX4_CHANGED_ON_DT, NULL, SESSSTARTTIME, AUX4_CHANGED_ON_DT) !=
DECODE(LKP_AUX4_CHANGED_ON_DT, NULL, SESSSTARTTIME, LKP_AUX4_CHANGED_ON_DT), 'Y','N'
)))))
-------------------------------------------------------------------------
W_INSERT_DT(SIL)
IIF(UPDATE_FLG = 'I' OR UPDATE_FLG = 'B', SESSSTARTTIME, LKP_W_INSERT_DT)

W_UPDATE_DT(SIL)
SESSSTARTTIME
-------------------------------------------------------------------------
update组件(SIL)
IIF(UPDATE_FLG = 'I' OR UPDATE_FLG = 'B', DD_INSERT,
IIF(UPDATE_FLG = 'D' OR UPDATE_FLG = 'U', DD_UPDATE, DD_REJECT))

delete_flg
SDE
DELETE_FLG='N'
SIL
IIF(UPDATE_FLG = 'D' OR UPDATE_FLG = 'B','Y','N')

软删除
SDE_ORA_XXX_Primary
Extracts the XXX related information from oracle apps into the staging area tables
Source:EBS 源主表(主键) Target: XXX_PE

SIL_XXX_IdentifyDelete
This mapping identifies deleted records in source  by doing brute force comparison between primary extract table XXX_PE and target table and load it into a staging table XXX_DEL. It works only on source data that is not archived and not deleted from warehouse target.
Sessions of this mapping will not be used in normal load workflows. It will be a separate process that 
will be executed based on user requirements.

SIL_XXX_SoftDelete
This mapping updates the delete flag with a value 'Y' on the  target table XXX for all the records that were  identified as 'deleted', driving from the staging area table XXX_DEL.

AUX1_CHANGED_ON_DT
AUX2_CHANGED_ON_DT
AUX3_CHANGED_ON_DT
来自各个源表的last_update_date
-----------------------------------------------------------------------------------

练习SIL层增量全量还有问题?

OK,可参考虚拟机的demo,主要是组件的使用和增量操作,组件包括LKP组件、EXP组件、UPD组件和FLT组件的使用;

增量操作则是在SDE比较好实现即通过时间戳的方式,在SIL则通过和目标表的数据比对

全量操作在SDE则去掉时间戳勾选truncate,在SIL则勾选truncate即可;

整个过程可以用下图来理解:

BIAPPS开发_第1张图片

数据抽取方式?

从数据库中抽取数据一般有以下几种方式: 

1)          全量抽取 

全量抽取类似于数据迁移或数据复制,它将数据源中的表或视图的数据原封不动的从数 

据库中抽取出来,并转换成自己的ETL 工具可以识别的格式。全量抽取比较简单。 

2)          增量抽取 

增量抽取只抽取自上次抽取以来数据库中要抽取的表中新增或修改的数据。在ETL 使用过程中,增量抽取较全量抽取应用更广。如何捕获变化的数据是增量抽取的关键。对捕获方法一般有两点要求:准确性,能够将业务系统中的变化数据按一定的频率准确地捕获到;性能,不能对业务系统造成太大的压力,影响现有业务。目前增量数据抽取中常用的捕获变化数据的方法有: 

a)          触发器方式(又称快照式)  在要抽取的表上建立需要的触发器,一般要建立插入、修改、删除三个触发器,每当源表中的数据            发生变化,就被相应的触发器将变化的数据写入一个临时表,抽取线程从临时表中抽取数据,临时表中抽取过的数据被标记或删除。 

优点:数据抽取的性能高,ETL 加载规则简单,速度快,不需要修改业务系统表结构,可以实现数据的递增加载。 

缺点:要求业务表建立触发器,对业务系统有一定的影响,容易对源数据库构成威胁。 

b)          时间戳方式      它是一种基于快照比较的变化数据捕获方式,在源表上增加一个时间戳字段,系统中更新修改表数据的时候,同时修改时间戳字段的值。当进行数据抽取时,通过比较上次抽取时间与时间戳字段的值来决定抽取哪些数据。有的数据库的时间戳支持自动更新,即表的其它字段的数据发生改变时,自动更新时间戳字段的值。有的数据库不支持时间戳的自动更新,这就要求业务系统在更新业务数据时,手工更新时间戳字段。 

优点:同触发器方式一样,时间戳方式的性能也比较好,ETL 系统设计清晰,源数据抽取相对清楚简单,可以实现数据的递增加载。 

缺点:时间戳维护需要由业务系统完成,对业务系统也有很大的倾入性(加入额外的时间戳字段),特别是对不支持时间戳的自动更新的数据库,还要求业务系统进行额外的更新时间戳操作;另外,无法捕获对时间戳以前数据的deleteupdate 操作,在数据准确性上受到了一定的限制。 

c)           全表删除插入方式      每次ETL 操作均删除目标表数据,由ETL 全新加载数据。 

优点:ETL 加载规则简单,速度快。 

缺点:对于维表加外键不适应,当业务系统产生删除数据操作时,综合数据库将不会记录到所删除的历史数据,不可以实现数据的递增加载;同时对于目标表所建立的关联关系,需要重新进行创建。 

d)          全表比对方式               全表比对的方式是ETL 工具事先为要抽取的表建立一个结构类似的临时表,该临时表记录源表主键以及根据所有字段的数据计算出来,每次进行数据抽取时,对源表和临时表进行的比对,如有不同,进行Update 操作,如目标表没有存在该主键值,表示该记录还没有,即进行Insert 操作。 

优点:对已有系统表结构不产生影响,不需要修改业务操作程序,所有抽取规则由ETL完成,管理维护统一,可以实现数据的递增加载,没有风险。

缺点:ETL 比对较复杂,设计较为复杂,速度较慢。与触发器和时间戳方式中的主动通知不同,全表比对方式是被动的进行全表数据的比对,性能较差。当表中没有主键或唯一列且含有重复记录时,全表比对方式的准确性较差。 

e)           日志表方式      在业务系统中添加系统日志表,当业务数据发生变化时,更新维护日志表内容,当作ETL 加载时,通过读日志表数据决定加载那些数据及如何加载。 

优点:不需要修改业务系统表结构,源数据抽取清楚,速度较快。可以实现数据的递增加载。 

缺点:日志表维护需要由业务系统完成,需要对业务系统业务操作程序作修改,记录日志信息。日志表维护较为麻烦,对原有系统有较大影响。工作量较大,改动较大,有一定风险。 

f)           Oracle 变化数据捕捉(CDC 方式)                            通过分析数据库自身的日志来判断变化的数据。Oracle 的改变数据捕获(CDCChanged Data Capture)技术是这方面的代表。CDC 特性是在Oracle9i 数据库中引入的。CDC 能够帮助你识别从上次抽取之后发生变化的数据。利用CDC,在对源表进行insertupdate  delete 等操作的同时就可以提取数据,并且变化的数据被保存在数据库的变化表中。这样就可以捕获发生变化的数据,然后利用数据库视图以一种可控的方式提供给目标系统。CDC 体系结构基于发布/订阅模型。发布者捕捉变化数据并提供给订阅者。订阅者使用从发布者那里获得的变化数据。通常,CDC 系统拥有一个发布者和多个订阅者。发布者首先需要识别捕获变化数据所需的源表。然后,它捕捉变化的数据并将其保存在特别创建的变化表中。它还使订阅者能够控制对变化数据的访问。订阅者需要清楚自己感兴趣的是哪些变化数据。一个订阅者可能不会对发布者发布的所有数据都感兴趣。订阅者需要创建一个订阅者视图来访问经发布者授权可以访问的变化数据。CDC 分为同步模式和异步模式,同步模式实时的捕获变化数据并存储到变化表中,发布者与订阅都位于同一数据库中;异步模式则是基于Oracle 的流复制技术。 

优点:提供了易于使用的API 来设置CDC 环境,缩短ETL 的时间。不需要修改业务系统表结构,可以实现数据的递增加载。 

缺点:业务系统数据库版本与产品不统一,难以统一实现,实现过程相对复杂,并且需深入研究方能实现。或者通过第三方工具实现,价格昂贵。


搭建数据模型


新建报表

你可能感兴趣的:(BI,数据仓库,etl,BIAPPS)