问题一:Flink CDC实时版中,支持flink cdc 采集 sql 是 CDAS语法,没有开源是吗?
Flink CDC实时版中,支持flink cdc 采集 sql 是 CDAS语法,支持动态加库和schema 变更,有 including 的配置,但在 flink sql 官方文档中没看到这个配置项,这部分是阿里云产品实现了,没有开源是吗?动态加表
参考回答:
cdc一开始就是开源出来的,阿里云自己做了cdc的部分,比如腾讯云那边也是自己做了。你可以理解,云厂商自己做了自己定制化的定西
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/572228
问题二:Flink CDC中oracle cdc2.3 + flink1.7,只能初始化同步数据?
Flink CDC中oracle cdc2.3 + flink1.7,只能初始化同步数据,但后续Oracle的增删改查 不会同步出去?
参考回答:
好像可以同步哎,但是为什么需要那么久时间才同步,大概几分钟才会同步过去,不过就是一张测试的id、name、age的user表,就几条数据
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/570643
问题三:flinkcdc同步很慢有什么优化手段吗?
flinkcdc同步很慢有什么优化手段吗?加了并行度,加了每批的大小,ck的时间也减少了,还是很慢,指定指定呗?
参考回答:
MySQL CDC作业消费Binlog太慢,例如下游的聚合算子或者Sink算子长时间出现反压,反压传递到source,导致source无法消费数据。
需要对作业资源调优,让source恢复正常消费即可。
https://help.aliyun.com/zh/flink/support/faq-about-cdc?spm=a2c4g.11186623.0.i50
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/570642
问题四:Flink CDC中oracle每天日志增量是多少昂?
Flink CDC中oracle每天日志增量是多少昂?一天1.5T日志正常么, 同样的数据量,mysql的binlog才三十多G?
参考回答:
根据您的描述,在 Flink CDC 中使用 Oracle 数据库的情况下,每天产生的日志大约为 1.5 TB。相比之下,同样数量的数据在 MySQL 的 binlog 中只占用了约 30 GB。这样的差异可能是由于 Oracle 和 MySQL 的 binlog 格式不同所导致的。
在 Oracle 中,binlog 也被称为 redo log,用于记录数据库的更改操作。与 MySQL 不同,Oracle 的 redo log 是二进制格式的,并且包含更多的详细信息。因此,Oracle 的 redo log 可能会比 MySQL 的 binlog 大得多。
此外,Oracle 还有一个名为 archive log 的特性,可以将 redo log 存储在单独的归档文件中。如果您启用了此功能,那么 Oracle 的日志占用的空间可能会进一步增大。
总的来说,不同的数据库系统对于存储日志的方式有所不同,因此会导致日志大小上的差异。在这种情况下,建议您检查一下 Oracle 的 redo log 设置,并考虑是否需要启用 archive log 功能以及调整其相关的参数,以便更好地管理日志空间的使用情况。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/570641
问题五:Flink CDC1.13.6在使用2.4.2版本的oraclecdc时无法创建?
Flink CDC1.13.6在使用2.4.2版本的oraclecdc时无法创建?这个是哪个包冲突了呀 查这个包大小都是Jd'k的包
参考回答:
这个问题可能是由于Flink CDC和Oracle CDC的包版本冲突导致的。首先,您需要确保Flink和Oracle CDC的版本是兼容的。例如,Flink 1.13.0版本配合Oracle CDC 2.1.0版本使用。其次,请检查并确保正确配置了Oracle Connector的参数,包括用户名、密码、连接地址、表名等。如果配置不正确,可能导致CDC无法正确读取Oracle数据库中的数据。如果问题仍然存在,建议您尝试升级Flink CDC到2.4.0或更高版本,其中Debezium Connector的实现方式已得到改进,能更好地处理增量数据变化。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/570640