问题一:flink1.7,oracle-cdc 2.3版本,latest模式下,能记录上次增量同步的位置吗?
flink1.7,oracle-cdc 2.3版本,latest模式下,能记录上次增量同步的位置吗,如果job中断了,重新启动后,能记录从原来的记录scn位置继续同步,而不是从现在数据库最新的scn位置开始同步
参考回答:
自己保存checkponit,从最新一次的checkpoint启动,checkponit默认是不保存的
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/567407
问题二:Flink CDC 重新创建可以吗?
Flink CDC yarn application -kill application_1698714528036_0006 然后./yarn-session.sh -nm test -d 重新创建可以吗?
参考回答:
你可以试试
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/567406
问题三:flink cdc 从timestamp起,过了好久才能读到数据 怎么回事,有遇到过吗?
flink cdc 从timestamp起,过了好久才能读到数据 怎么回事,有遇到过吗?
参考回答:
checkpoint时间太长了
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/567405
问题四:Flink oraclecdc的全量支持checkpoint嘛?
Flink oraclecdc的全量支持checkpoint嘛?
参考回答:
支持
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/566839
问题五:Flink CDC里面是有封装kafka吗?
Flink CDC里面是有封装kafka吗?
参考回答:
Flink CDC本身并不直接封装Kafka,它主要用于从源数据库中捕获变更数据。然而,在实际使用中,为了实现实时数据集成和分析,Flink CDC可以与Kafka进行集成。例如,可以将CDC捕获的数据通过Flink程序进行处理后,再将结果输出到Kafka中。
此外,根据具体业务需求,也可以将Flink CDC和Kafka Streams一起使用。Debezium官方架构图中,就是通过Kafka Streams直接实现的CDC功能。在这种情况下,Flink可以作为流处理引擎,对从Kafka中消费的数据进行处理。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/567403