问题一:Flink CDC同步开源的那个postgresql数据库有碰到这个情况的不?
Flink CDC阿里云基于postgresql做的polardb我用flink 2.2 postgresql 连接器做同步。查询polardb的slot显示没有消费,但是我kafka显示收到了数据。这导致wal日志持续增加且不删除。同步开源的那个postgresql数据库有碰到这个情况的不?
参考回答:
Flink CDC连接Polardb进行实时同步时,可能会出现Wal Log持续增加且不删除的现象。这是因为WAL Log是记录数据变动的重要信息,在不断发生数据变动的情况下,自然会有新的 WAL Log生成。
针对这种情况,可以考虑以下解决方案:
- 优化处理能力。您可以检查现有的配置,并增加计算资源以提高处理能力,避免出现数据积压现象;
- 及时归档和清理 WAL Log。可以在Polardb中设置定时任务,定期清理历史 WAL Log;
- 检查代码逻辑。看看是否有误操作或者其他异常导致 WAL Log不断增加,如有必要,及时修复代码漏洞或者设置适当的恢复策略。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/570220
问题二:flinkcdc全量读取mysql表中数据阶段,是直接通过jdbc读取的么?
flinkcdc全量读取mysql表中数据阶段,是直接通过jdbc读取的么?
参考回答:
目前使用的是增量快照算法
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/570219
问题三:Flink CDC对于oracle表,只抽取增量数据,这样的配置可以吗?
Flink CDC对于oracle表,只抽取增量数据,这样的配置可以吗?
参考回答:
可以的,FlinkCDC对于Oracle表,只抽取增量数据的配置是可以的。在配置中,需要设置debezium.log.mining.strategy
为online_catalog
,并启用增量快照功能。同时,需要设置scan.incremental.snapshot.enabled
为true
。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/570218
问题四:Flink CDC使用flink connect starrocks 怎么限制读取速率呀?
Flink CDC使用flink connect starrocks 怎么限制读取速率呀?
参考回答:
在Flink CDC中,限制读取StarRocks数据库的速度可以通过以下两种方式实现:
- 通过设置
cdc.maxParallelism
参数来控制CDC任务的最大并行度。较小的并行度可以降低每个任务的读取速度,从而限制整体读取速率。但请注意,设置过小的并行度可能会降低读取效率。 - 利用
cdc.maxEventsPerSecond
参数设定每秒钟从数据库中读取的最大事件数。适当调低该值可以帮助控制读取速度,但也需要注意,设置的值过小可能会导致数据丢失。
这两个参数可以在Flink作业中的CDC表环境中进行配置。同时,需要充分理解和掌握Flink的网络流控与反压机制,以便更有效地控制系统负载。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/570217
问题五:Flink CDC这两个参数不设置,日志增长快,是指Flink的日志增长很快吗?
Flink CDC这两个参数不设置,日志增长快,是指Flink的日志增长很快吗,包括checkpoint的日志?
参考回答:
不是是oracle数据库归档日志 增长的很快
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/570216