在Flink CDC中人大金仓可以兼容PG的wal2json和Decoderbufs插件不,如果不支持有没有类似的方案?
Flink CDC目前不直接兼容人大金仓数据库(Kingbase)的PG wal2json和Decoderbufs插件。Flink CDC主要针对MySQL、PostgreSQL等数据库提供了原生支持。对于人大金仓数据库,阿里云提供了MaxCompute CDC服务,它可以用于实时同步Kingbase的数据到MaxCompute。如果需要将Kingbase的数据同步到其他系统,您可能需要寻找第三方工具或自定义开发解决方案。
阿里云Flink CDC目前不直接支持人大金仓数据库,也不兼容PostgreSQL的wal2json和Decoderbufs插件。对于人大金仓数据库的变更数据捕获,您可以关注阿里云的数据集成(Data Integration)服务,它可能提供更广泛的数据库连接和同步支持
Flink CDC 主要支持 MySQL、PostgreSQL 等数据库,通过 Debezium 作为底层引擎来捕获数据变更。目前没有明确提到支持人大金仓数据库
修改数据库配置文件,设置 wal_level=logical 和 max_replication_slots 参数,创建 Logical Replication Slot(复制槽),并使用相关插件进行逻辑解码
wal2json 和 Decoderbufs 是PostgreSQL社区开发的两个插件,用于提供变更数据捕获(CDC)功能。wal2json 将WAL(Write-Ahead Logging)日志转换为JSON格式的变更记录,而 Decoderbufs 用于解析这些JSON格式的变更记录。
在Flink CDC中,针对Postgres数据库的连接器确实支持使用wal2json
和decoderbufs
这两种Logical Decoding插件。这两种插件都是Postgres CDC连接器所提及的支持插件列表中的成员,用于解析PostgreSQL的WAL(预写式日志)变更数据,进而实现数据捕获。因此,理论上讲,如果人大金仓数据库兼容PostgreSQL的逻辑复制协议及这些插件,Flink CDC应该能够通过这些插件与其集成并进行数据捕获。
相关链接
https://help.aliyun.com/zh/flink/developer-reference/postgresql-cdc-connector
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。