基于OGG Datahub插件将Oracle数据同步上云

一、背景介绍

随着数据规模的不断扩大,传统的RDBMS难以满足OLAP的需求,本文将介绍如何将Oracle的数据实时同步到阿里云的大数据处理平台当中,并利用大数据工具对数据进行分析。

OGG(Oracle GoldenGate)是一个基于日志的结构化数据备份工具,一般用于Oracle数据库之间的主从备份以及Oracle数据库到其他数据库(DB2, MySQL等)的同步。下面是Oracle官方提供的一个OGG的整体架构图,从图中可以看出OGG的部署分为源端和目标端两部分组成,主要有Manager,Extract,Pump,Collector,Replicat这么一些组件。

基于OGG Datahub插件将Oracle数据同步上云_第1张图片

Manager:在源端和目标端都会有且只有一个Manager进程存在,负责管理其他进程的启停和监控等;

Extract:负责从源端数据库表或者事务日志中捕获数据,有初始加载和增量同步两种模式可以配置,初始加载模式是直接将源表数据同步到目标端,而增量同步就是分析源端数据库的日志,将变动的记录传到目标端,本文介绍的是增量同步的模式;

Pump:Extract从源端抽取的数据会先写到本地磁盘的Trail文件,Pump进程会负责将Trail文件的数据投递到目标端;

Collector:目标端负责接收来自源端的数据,生成Trail文件

Replicat:负责读取目标端的Trail文件,转化为相应的DDL和DML语句作用到目标数据库,实现数据同步。

本文介绍的Oracle数据同步是通过OGG的Datahub插件实现的,该Datahub插件在架构图中处于Replicat的位置,会分析Trail文件,将数据的变化记录写入Datahub中,可以使用流计算对datahub中的数据进行实时分析,也可以将数据归档到MaxCompute中进行离线处理。

二、安装步骤

0. 环境要求

源端已安装好Oracle

源端已安装好OGG(建议版本Oracle GoldenGate V12.1.2.1)

目标端已安装好OGG Adapters(建议版本Oracle GoldenGate Application Adapters 12.1.2.1)

java 7

(下面将介绍Oracle/OGG相关安装和配置过程,Oracle的安装将不做介绍,另外需要注意的是:Oracle/OGG相关参数配置以熟悉Oracle/OGG的运维人员配置为准,本示例只是提供一个可运行的样本,Oracle所使用的版本为ORA11g)

1. 源端OGG安装

下载OGG安装包解压后有如下目录:

目前oracle一般采取response安装的方式,在response/oggcore.rsp中配置安装依赖,具体如下:

基于OGG Datahub插件将Oracle数据同步上云_第2张图片

执行命令:

本示例中,安装后OGG的目录在/home/oracle/u01/ggate,安装日志在/home/oracle/u01/ggate/cfgtoollogs/oui目录下,当silentInstall{时间}.log文件里出现如下提示,表明安装成功:

执行/home/oracle/u01/ggate/ggsci命令,并在提示符下键入命令:CREATE SUBDIRS,从而生成ogg需要的各种目录(dir打头的那些)。

至此,源端OGG安装完成。

2. 源端Oracle配置

以dba分身进入sqlplus:sqlplus / as sysdba

基于OGG Datahub插件将Oracle数据同步上云_第3张图片
基于OGG Datahub插件将Oracle数据同步上云_第4张图片

3. OGG源端mgr配置

以下是通过ggsci对ogg进行配置

配置mgr

edit params mgr

基于OGG Datahub插件将Oracle数据同步上云_第5张图片

启动mgr(运行日志在ggate/dirrpt中)

start mgr

查看mgr状态

info mgr

查看mgr配置

view params mgr

4. OGG源端extract配置

以下是通过ggsci对ogg进行配置

配置extract(名字可任取,extract是组名)

edit params extract

基于OGG Datahub插件将Oracle数据同步上云_第6张图片

增加extract进程(ext后的名字要跟上面extract对应,本例中extract是组名)

add ext extract,tranlog, begin now

删除某废弃进程DP_TEST

delete ext DP_TEST

添加抽取进程,每个队列文件大小为200m

add exttrail ./dirdat/st,ext extract, megabytes 200

启动抽取进程(运行日志在ggate/dirrpt中)

start extract extract

至此,extract配置完成,数据库的一条变更可以在ggate/dirdat目录下的文件中看到

5. 生成def文件

源端ggsci起来后执行如下命令,生成defgen文件,并且拷贝到目标端dirdef下

edit params defgen

在shell中执行如下命令,生成ogg_test.def

./defgen paramfile ./dirprm/defgen.prm

6. 目标端OGG安装和配置

解压adapter包

将源端中dirdef/ogg_test.def文件拷贝到adapter的dirdef下

执行ggsci起来后执行如下命令,创建必须目录

create subdirs

编辑mgr配置

edit params mgr

基于OGG Datahub插件将Oracle数据同步上云_第7张图片

启动mgr

start mgr

7. 源端ogg pump配置

启动ggsci后执行如下操作:

编辑pump配置

edit params

基于OGG Datahub插件将Oracle数据同步上云_第8张图片

添加投递进程,从某一个队列开始投

add ext pump,exttrailsource ./dirdat/st

备注:投递进程,每个队文件大小为200m

add rmttrail ./dirdat/st,ext pump,megabytes 200

启动pump

start pump

启动后,结合上面adapter的配置,可以在目标端的dirdat目录下看到过来的trailfile

8. Datahub插件安装和配置

依赖环境:jdk1.7。

配置好JAVA_HOME, LD_LIBRARY_PATH,可以将环境变量配置到~/.bash_profile中,例如

修改环境变量后,请重启adapter的mgr进程

下载datahub-ogg-plugin.tar.gz并解压:

修改conf路径下的javaue.properties文件,将{YOUR_HOME}替换为解压后的路径

基于OGG Datahub插件将Oracle数据同步上云_第9张图片

修改conf路径下的log4j.properties文件,将{YOUR_HOME}替换为解压后的路径

修改conf路径下的configure.xml文件,修改方式见文件中的注释

基于OGG Datahub插件将Oracle数据同步上云_第10张图片
基于OGG Datahub插件将Oracle数据同步上云_第11张图片
基于OGG Datahub插件将Oracle数据同步上云_第12张图片
基于OGG Datahub插件将Oracle数据同步上云_第13张图片

在ggsci下启动datahub writer

edit params dhwriter

基于OGG Datahub插件将Oracle数据同步上云_第14张图片

添加dhwriter

add extract dhwriter, exttrailsource ./dirdat/st

启动dhwriter

start dhwriter

三、使用场景

这里会用一个简单的示例来说明数据的使用方法,例如我们在Oracle数据库有一张商品订单表orders(oid int, pid int, num int),该表有三列,分别为订单ID, 商品ID和商品数量。

将这个表通过OGG Datahub进行增量数据同步之前,我们需要先将源表已有的数据通过DataX同步到MaxCompute中。增量同步的关键步骤如下:

(1)在Datahub上创建相应的Topic,Topic的schema为(string record_id, string optype, string readtime, bigint oid_before, bigint oid_after, bigint pid_before, bigint pid_after, bigint num_before, bigint num_after);

(2)OGG Datahub的插件按照上述的安装流程部署配置,其中列的Mapping配置如下:

基于OGG Datahub插件将Oracle数据同步上云_第15张图片

其中optype和readtime字段是记录数据库的数据变更类型和时间,optype有"I", "D", "U"三种取值,分别对应为“增”,“删”,“改”三种数据变更操作。

(3)OGG Datahub插件部署好成功运行后,插件会源源不断的将源表的数据变更记录输送至datahub中,例如我们在源订单表中新增一条记录(1,2,1),datahub里收到的记录如下:

基于OGG Datahub插件将Oracle数据同步上云_第16张图片

修改这条数据,比如把num改为20,datahub则会收到的一条变更数据记录,如下:

基于OGG Datahub插件将Oracle数据同步上云_第17张图片

实时计算

在前一天的离线计算的基础数据上,我们可以写一个StreamCompute流计算的分析程序,很容易地对数据进行实时汇总,例如实时统计当前总的订单数,每种商品的销售量等。处理思路就是对于每一条到来的变更数据,可以拿到变化的数值,实时更新统计变量即可。

离线处理

为了便于后续的离线分析,我们也可以将Datahub里的数据归档到MaxCompute中,在MaxCompute中创建相应Schema的表:

createtableorders_log(record_idstring, optypestring, readtimestring, oid_beforebigint, oid_afterbigint, pid_beforebigint, pid_afterbigint, num_beforebigint, num_afterbigint);

在Datahub上创建MaxCompute的数据归档,上述流入Datahub里的数据将自动同步到MaxCompute当中。建议将同步到MaxCompute中的数据按照时间段进行划分,比如每一天的增量数据都对应一个独立分区。这样当天的数据同步完成后,我们可以处理对应的分区,拿到当天所有的数据变更,而与和前一天的全量数据进行合并后,即可得到当天的全量数据。为了简单起见,先不考虑分区表的情况,以2016-12-06这天的增量数据为例,假设前一天的全量数据在表orders_base里面,datahub同步过来的增量数据在orders_log表中,将orders_base与orders_log做合并操作,可以得到2016-12-06这天的最终全量数据写入表orders_result中。这个过程可以在MaxCompute上用如下这样一条SQL完成。

基于OGG Datahub插件将Oracle数据同步上云_第18张图片
基于OGG Datahub插件将Oracle数据同步上云_第19张图片

四、常见问题

Q:目标端报错 OGG-06551 Oracle GoldenGate Collector: Could not translate host name localhost into an Internet address.

A:目标端机器hostname在/etc/hosts里面重新设置localhost对应的ip

Q:找不到jvm相关的so包

A:将jvm的so路径添加到LD_LIBRARY_PATH后,重启mgr

例如:exportLD_LIBRARY_PATH=${LD_LIBRARY_PATH}:$JAVA_HOME/lib/amd64:$JAVA_HOME/lib/amd64/server

Q:有了DDL语句,比如增加一列,源端ogg没有问题,但是adapter端的ffwriter和jmswriter进程退出,且报错: 2015-06-11 14:01:10 ERROR OGG-01161 Bad column index (5) specified for table OGG_TEST.T_PERSON, max columns = 5.

A:由于表结构改变,需要重做def文件,将重做的def文件放入dirdef后重启即可。

本文作者:冶善

原文链接

本文为云栖社区原创内容,未经允许不得转载。

你可能感兴趣的:(基于OGG Datahub插件将Oracle数据同步上云)