问题一:Flink CDC目前oracle的cdc 有啥替代方案么?
Flink CDC目前oracle的cdc 有啥替代方案么?
参考答案:
debezium新出了一个OpenLogReplicator support,看后期这个是否给力吧,这个做法符合目前商业化的解决方案,就看支持到什么程度了
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/582259
问题二:FlinkCDC 的metrics缺少debezium的相关指标,这个有办法获取吗?
FlinkCDC 的metrics缺少debezium的相关指标,这个有办法获取吗?
参考答案:
Flink 会开发自己的metric
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/582257
问题三:Flink CDCbinlog归档也不是存储磁盘上,为了延长自己可以灵活控制的消费时间和消费次数吗?
Flink CDCbinlog归档也不是存储磁盘上, push到kafka 就是为了延长自己可以灵活控制的消费时间和消费次数?
参考答案:
都可以,但新增一个链路并行push kakfa 实现更高效
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/582251
问题四:Flink CDC中kafka版本是1.1.1,都无法消费kafka了吗?
Flink CDC中kafka版本是1.1.1,原本打算升级flink版本到1.17的 但是flink版本升级后 jar包变成flink-sql-connector-kafka-1.17.0.jar 无论是用KafkaSource类还是FlinkConsumer类 都无法消费kafka了?我之前是flink1.14版本 引用的jar是flink-connector-kafka_2.12,用flinkConsumer这个类是可以消费成功的
参考答案:
看日志分析吧
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/582249
问题五:Flink CDC业务库 只保留近一个小时的binlog超时间的归档到oss 有啥好的解决方法么?
Flink CDC业务库 只保留近一个小时的binlog 超时间的归档到oss 有啥好的解决方法么 cdc有没有接口能读取oss的binlog?
参考答案:
可以自己写代码实现下 读取oss 的binlog历史 都push到自定义kafka,加快消费速度
关于本问题的更多回答可点击进行查看: