Flink CDC有那位大佬有成功的写出OracleCDC的DDL同步吗? 有没有什么特殊的配置需要开启的?
在 Flink CDC 中,可以通过配置参数来控制是否同步 Oracle 数据库的 DDL(Data Definition Language)语句。
首先,您需要确保您的 Oracle 数据库已经启用了归档模式,并且设置了正确的归档目录。这是因为 Flink CDC 是通过监听归档日志来捕获 DDL 变更的。
然后,在配置 Flink CDC 连接器时,可以设置 include.schema.changes
参数为 true
来启用 DDL 同步。例如:
{
"connector.class": "io.debezium.connector.oracle.OracleConnector",
"offset.storage": "org.apache.kafka.connect.storage.FileOffsetBackingStore",
"offset.storage.file.filename": "/path/to/offset/storage/file.dat",
"database.server.name": "dbserver1",
"database.hostname": "localhost",
"database.port": "1521",
"database.user": "hr",
"database.password": "hr",
"database.dbname": "pdborcl",
"include.schema.changes": "true",
}
在上面的配置中,设置 include.schema.changes
参数为 true
后,Flink CDC 将开始监听 Oracle 数据库的 DDL 变更,并将这些变更发送到 Kafka 主题中。
需要注意的是,目前 Flink CDC 对于 Oracle DDL 同步的支持并不完美,可能会存在一些已知的问题。
对于Flink CDC实时同步Oracle,首先需要确保Oracle中相关表已开启归档日志和补充日志。因为Flink CDC基于Debezium的LogMiner实现,LogMiner需要使用Oracle的归档日志和补充日志来获取变更数据。然后在Flink程序中创建Oracle CDC连接。
关于DDL变更的问题,目前存在一些疑问和挑战。一些用户反映,尽管开启了includeSchemaChanges选项,但仍无法监听到DDL变更。这可能需要更深入的研究和探索。
在进行此类操作时,推荐参考官方文档和社区中的相关案例。这些资源可能包含有关如何配置和使用Flink CDC进行Oracle数据库DDL同步的详细信息和最佳实践。
Flink CDC 支持 Oracle DDL 同步功能,并不需要特殊的配置。在 Oracle 数据源上启用日志挖掘功能。具体步骤如下:
enable_miner.sh
脚本。版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。