配置GoldenGate源端Manager参数

简介:

大家都知道配置OGG源端的第一步工作是部署源端MGR(Manager)进程的参数文件,该参数文件可以到./dirprm/mgr.prm中找到。   使用如下命令编辑manager的参数文件:   ggsci > edit params mgr   使用ggsci edit params命令是有好处的,避免了编辑错文件的麻烦。 OGG的参数文件可以使用系统中的任何文本编辑器修改。 必须以mgr.prm为文件名,且必须存放在./dirprm这个OGG的安装子目录下。   适用于Manager的参数有那么一大堆,这里我们只介绍那些对于最佳实践有用的参数。   若源端将用在一个双向复制的环境中,则所有这些参数在目标端也可以相似设置。若源端不会被当做目标端,则需要考虑的参数更少了。     PORT 7809   --这里MGR的PORT是最常见的参数了,该参数指定了接受TCP通信的端口,这是一个必要参数。一般来说7809是一个推荐使用的端口   DYNAMICPORTLIST 9101 - 9356 DYNAMICPORTSREASSIGNDELAY 5   --动态端口参数对于只充当source的一端是不必要的,一般只需要在target端设置动态端口参数   PURGEOLDEXTRACTS ./dirdat/*, usecheckpoints, minkeephours 96   Manager可以负责trail文件的定期清理工作,minkeephours 96意为清理96个小时即4天前的trail   LAGINFOSECONDS 15 LAGCRITICALMINUTES 2   以上2个参数定义了LAG REPORT的时间间隔     BOOTDELAYMINUTES 3   以上BOOTDELAYMINUTES仅对windows有效,意为Windows启动3分钟后再BOOT OGG MGR   AUTOSTART ER *   AUTOSTART 意为当MGR启动时启动相应的EXTRACT和REPLICAT   AutoRestart ER *, WaitMinutes 5, Retries 3   AUTORESTART 意为自动启动失败的OGG进程,上面指定了只重试一次   PurgeMarkerHistory MinKeepDays 3, MaxKeepDays 7, FrequencyMinutes 120   以上PurgeMarkerHistory定义了清理DDL复制数据策略   CHECKMINUTES 10   CHECKMINUTES



本文转自maclean_007 51CTO博客,原文链接:http://blog.51cto.com/maclean/1278081

相关文章
|
存储 分布式计算 数据管理
基于 Apache Hudi + dbt 构建开放的Lakehouse
基于 Apache Hudi + dbt 构建开放的Lakehouse
200 3
|
消息中间件 关系型数据库 Kafka
Flink CDC可以从Kafka消费数据并写入到Doris中
Flink CDC可以从Kafka消费数据并写入到Doris中
928 2
|
8月前
|
人工智能 数据可视化 前端开发
DB-GPT v0.6.0 版本更新,发布六大核心新特性!
DB-GPT v0.6.0 版本已发布,这是一个开源的AI原生数据应用开发框架,带来了多项新特性,包括AWEL协议升级至2.0,支持复杂编排;改进的数据应用创建与生命周期管理,支持多模式构建;GraphRAG增强图社区摘要与混合检索,图索引成本降低50%;丰富的Agent Memory类型;支持Text2NLU与Text2GQL微调;GPT-Vis前端可视化升级。这些更新助力企业快速构建智能数据应用,推动数字化转型。
|
11月前
|
传感器 供应链 物联网
ERP系统与物联网(IoT)集成:实现智能化业务管理
【7月更文挑战第29天】 ERP系统与物联网(IoT)集成:实现智能化业务管理
799 0
|
存储 分布式计算 监控
使用Airflow管理大数据工作流:自动化任务调度与依赖
【4月更文挑战第8天】Apache Airflow是一款开源的工作流管理工具,用于高效组织和调度大数据任务。它基于DAG(有向无环图)定义任务依赖,通过Operators(如BashOperator、PythonOperator)执行不同工作,并通过Scheduler和Executor协调任务执行。Web UI提供监控界面,Metadata DB存储元数据。创建DAG涉及定义DAG属性、Task及依赖关系,然后部署到Airflow环境。进阶功能包括Variables和Connections管理、XCom跨Task通信、自定义Operator及Plugin、高级调度与告警设置。
868 0
|
XML Java API
Kettle资源库运行方式(二)
Kettle资源库运行方式(二)
641 0
Kettle资源库运行方式(二)
|
SQL 分布式计算 Java
大数据中必须要掌握的 Flink SQL 详细剖析 (一)
Flink SQL 是 Flink 实时计算为简化计算模型,降低用户使用实时计算门槛而设计的一套符合标准 SQL 语义的开发语言。
956 1
大数据中必须要掌握的 Flink SQL 详细剖析 (一)
|
SQL 消息中间件 存储
Flink 1.11 SQL 使用攻略
SQL 作为 Flink 中公认的核心模块之一,对推动 Flink 流批一体功能的完善至关重要。在 1.11 中,Flink SQL 也进行了大量的增强与完善,开发大功能 10 余项,不仅扩大了应用场景,还简化了流程,上手操作更简单。
Flink 1.11 SQL 使用攻略
|
流计算 存储 Apache
Apache Flink : Checkpoint 原理剖析与应用实践
本文将分享 Flink 中 Checkpoint 的应用实践,包括四个部分,分别是 Checkpoint 与 state 的关系、什么是 state、如何在 Flink 中使用 state 和 Checkpoint 的执行机制
Apache Flink : Checkpoint 原理剖析与应用实践
|
Oracle 关系型数据库
OGG 根据 SCN 同步数据零停机
OGG 根据 SCN 同步数据零停机 -- 在做测试前已经预先配置好OGG -- 创建测试表插入数据 create table zzh.test1(id number); insert into test1 values(1);  insert into test1 values(2); ...
17719 0