使用 Direct Initial Load 初始化 GoldenGate 同步数据

本文涉及的产品
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介:
背景

GoldenGate 的 Direct Initial load 常用于用于异构环境的初始化数据,也可以用于某些生产环境到测试环境的数据同步。初始化的同步过程一般只需要在 GoldenGate 上配置即可无需 DBA 进行参与,使用 Direct Initial load 处理某些数据表不一致后重新同步也非常方便,仅需要将想要同步表配置如参数启动进程即可完成表数据库的同步。

GoldenGate (OGG) 初始化数据的种类


2.1. Extract 和 Replicat 进程的两种工作模式

  • Initial Load — 初始数据的加载( special run、 batch run)

一般用于异构环境下的数据加载,初始化过程文件可以落地也可以选择不落地,抽取的方式就是将需要初始化的数据查询出来保存成 OGG 或者目标数据库可以识别的格式。

  • Change Data Capture (CDC) — 增量数据的抽取

配合初始化数据库,完成整个初始化中增量数据的同步。

2.2. initial load 的四种工作模式

目标端数据落地

  • File to replicat (Extract writes to a file that Replicat applies)

2f9d309ae8ad108d741c404688848c3316590283

该方式利用 OGG 的 Initial Load Extract 进程将需要抽取的数据先进行解析生成 OGG 的 Trail 文件,然后将解析生成的文件传输到目标端主机的 OGG 指定的目录里,再由 OGG 的 Replicat 进行解析插入到目标数据库的对应表里。

  • File to database utility (Extract writes to a file formatted for a DB bulk loadutility)

6649ce605678b13b5d833211e4a3ca4241851db1

该方式源端进程解析数据库数据,通过 FORMATASCII 参数控制抽取最终生成目标端数据库可以识别使用的 ASCII 文件,也就是文本文件。目标端使用自己数据库提供的数据加载程序进行数据加载完成初始数据,这种方式加载数据一般应用于异构的环境,比如 Oracle 到 IBM 数据库之间加载,Oracle 到 SQL Server 间。

目标端数据不落地

  • Direct Load (Extract sends data directly to Replicat)

ac82f58423fa951b304d6b2e3bb8a4e752500cba

采用不落地的方式 Initial load extract 和 Initial load replicat 进程之间直接进行传输数据,在目标端没有 collertor 进程负责收集源端发送的 tail 文件。而目标端落地方式当 mgr 进程启动的时候会自动启动一个 collector 进程进行接收源端 pump 进程传输过来的 tail 文件。

  • Direct load 的配置方式如下:

ADD EXTRACT <name>, SOURCEISTABLE

Extract parameters:

RMTTASK REPLICAT, GROUP <name>

ADD REPLICAT <name>, SPECIALRUN

两边的 group name 要对应上

  • Direct bulk load (Replicat uses Oracle SQL*Loader API)

a4a4717fd658221f1a1d17f9f1f17b4ed44788a9

这种方式仅仅支持 Oracle 间的同步,同样也不会落地文件 Initial load replicat 进程直接调用 SQL*LOADER API进行数据入库,复制端使用 bulkload 参数。

 

2.3. 初始化方式适用场景总结

6f8d1dcff7d1585cac4e54e18f4c35374ba44f35

实验步骤

Direct Initial load 操作步骤较多,文章中仅对关键步骤进行讲解说明详细操作步骤可以通过以下链接下载课程对应视频:https://share.weiyun.com/f9e06940c89cb00785c7514a3f326d10

3.1 两端同时创建表

CREATE TABLE sky.t1 (id NUMBER);

--创建主键注意两边都要创建

alter table sky.t1 add primarykey(id);

--增加附加日志

ggsic

dblogin userid goldengate,passwordgoldengate;

add trandata sky.*

3.2 模拟数据插入脚本 

SQLPLUS 下执行如下语句模拟不断执行数据插入

begin

for i in 90000..10000000

loop

insert into sky.t1 values(i);

commit;

if mod(i,100) = 0 then

dbms_lock.sleep(3);

end if;

end loop;

end;  

3.3 源端进程配置

  • 增加源端 CDC 进程
ADD EXTRACT cdcext1, TRANLOG, BEGIN NOW

ADD RMTTRAIL ./dirdat/zz, EXTRACT cdcext1
  • 增加源端 CDC 进程配置文件
EXTRACT cdcext1

SETENV (NLS_LANG=AMERICAN_AMERICA.ZHS16GBK)

USERID goldengate, PASSWORD goldengate

RMTHOST 192.168.56.120, MGRPORT 7809

RMTTRAIL ./dirdat/zz

TABLE sky.t1
  • 增加源端的 INIT 进程

add extract initext,source is table

  • 增加源端 INIT 进程配置文件
extract initext

userid goldengate, password goldengate

rmthost 192.168.56.120, mgrport 7809

rmttask replicat,group initrep

table sky.t1;

3.4 目标端进程配置

  • 增加目标端 CDC 进程

add replicat cdcrep1, exttrail./dirdat/zz nodbcheckpoint

  • 增加目标端 CDC 进程配置文件

REPLICAT cdcrep1

HANDLECOLLISIONS

ASSUMETARGETDEFS

USERID goldengate, PASSWORDgoldengate

MAP sky.t1, TARGET sky.t1;

注意进程中关键的侧参数 HANDLECOLLISIONS。

  • 增加目标端 INIT 进程

add replicat initrep,specialrun

  • 增加目标端 INIT 进程配置文件

replicat initrep

ASSUMETARGETDEFS

DISCARDFILE ./dirrpt/repint1.dsc, APPEND, MEGABYTES 100

userid goldengate, password goldengate

MAP sky.t1, TARGET sky.t1;

3.5 同步过程

  • 源端数据库执行数据生成 SQL 语句

begin

for i in90000..10000000

loop

insertinto sky.t1 values(i);

commit;

ifmod(i,100) = 0 then

dbms_lock.sleep(3);

end if;

end loop;

end;

/

  • 源端 OGG 启动 CDC 捕获进程

start extract cdcext1

  • 源端启动 initialload 初始化进程

start extract initext

  • 等待初始环境完成自动关闭后,目标端启动 CDC 复制进

start replicat cdcrep1

  • 等待 CDC 复制进程执行的时间点超过初始化进程结束的时间点后,关闭复制端CDC 进程取消 HANDLECOLLISIONS 参数

send replicat cdcrep1 nohandlecollisions

4. Oracle To Oracle 初始化的关键注意点

  • 确保能成功打开库级和表级附加日志的
  • 考虑是否配置 DDL 和序列的复制
  • 初始化过程中源库没有 DDL 操作
  • 如果用数据导入导出进行在线初始化,确保回滚段不会失效
  • 目标库不能有引起数据变化的因素(触发器、 job、级联删除约束)
  • Scheduler:如果是导入导出进行初始化,源端中的非系统 scheduler 必须 disable,否则这些 Scheduler 会在导入后立刻自动运行;如果使用 RMAN 初始化数据,可以在目标重构过程中(open 之前)在目标上要 disable,可以在 upgrade 模式下 disable)
  • 源端开始备份或者 EXP 的时候,确保这时 DB 中没有 start_time 是在启动 extract 进程之前的事务。

c2a38c7127f820cfb47a4f58f498be0a281df793

执行目标初始化过程中,必须保证做源端数据导出时,当时所有数据库中交易是在 extract 启动检查点后才开始,否则这些交易在 extract 启动检查点前的部分数据将会丢失。

可以通过查看 v$transaction 的 min(START_TIME) 应当大于 extract 开始时间来验证在取 SCN 号时,先执行:select start_time from gv$transaction where to_date(start_time, ‘yyyy-mm-ddhh24:mi:ss’)<to_date(‘extract 启动时间','yyyy-mm-dd hh24:mi:ss');通过该语句,如果找到比 extract 启动时间早的事务需要等这些事务结束,才可以开始执行备份。

总结

本课程主要介绍了 Direct Initial load 在生产环境快速同步数据表有很高的效率,配合 CDC 进程完成一致性的初始化,我们可以快速的在测试环境构建,数据装载测试等各种环境很好的使用该功能。

另外在 OGG 初始化过程中注意文中提到的关键点,能够在有效杜绝在初始化完成后 OGG 同步过程的数据不一致问题。


原文发布时间为:2018-03-5

本文作者:桑凯

本文来自云栖社区合作伙伴“数据和云”,了解相关信息可以关注“数据和云”微信公众号

相关文章
|
4月前
|
分布式计算 DataWorks 数据库连接
DataWorks操作报错合集之同步脚本报错This error often occurs when a lot dirty data exists in the source data. 是什么原因
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
5月前
|
消息中间件 Kubernetes Java
实时计算 Flink版操作报错合集之写入 Kafka 报错 "Failed to send data to Kafka: Failed to allocate memory within the configured max blocking time 60000 ms",该怎么解决
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
326 0
The Soft Link between IM Level Storage Location and WM level Storage Type?(2)
The Soft Link between IM Level Storage Location and WM level Storage Type?(2)
The Soft Link between IM Level Storage Location and WM level Storage Type?(2)
The Soft Link between IM Level Storage Location and WM level Storage Type?(1)
The Soft Link between IM Level Storage Location and WM level Storage Type?(1)
The Soft Link between IM Level Storage Location and WM level Storage Type?(1)
jMeter CSV Data set config 的 sharing mode 和 Thread group loop 配合使用
jMeter CSV Data set config 的 sharing mode 和 Thread group loop 配合使用
153 0
jMeter CSV Data set config 的 sharing mode 和 Thread group loop 配合使用
|
SQL 关系型数据库 MySQL
级联slave的延迟计算和query event exe time获取方法
一、级联时间计算方式 比如A->B->C那么C的延迟是计算B还是A的。因为Event的中timestamp没变,但是C计算时间差值却是以B为准。如果时钟同步的情况下,其实基本可以考虑为A的。计算方法可以参考我的《深入理解MySQL主从原理》专栏 逻辑如下: 级联中的Event依然是主库的时间,因此其延迟还是相对主库而言。
742 0