Flink CDC这个有遇到过吗? io.debezium.connector.oracle.OracleStreamingChangeEventSourceMetrics [] - The connector is now using the maximum batch size 100000 when querying the LogMiner view. This could be indicative of large SCN gaps?
这个问题是指 Flink CDC 在读取 Oracle 数据库时使用最大批处理大小 100000 来查询 LogMiner 视图,这可能是由于 SCN 跨度过大引起的。
要解决这个问题,您可以尝试以下方法:
是的,这个错误信息表示Flink CDC在查询LogMiner视图时使用了最大批量大小100000。这可能意味着存在较大的SCN间隙。为了解决这个问题,你可以尝试以下方法:
debezium.max.batch.size
参数来调整批处理大小。例如,将其设置为200000或更大。debezium.max.batch.size: 200000
SELECT SCN, SYSTIMESTAMP FROM V$LOGMNR_CONNECTS WHERE STATUS = 'IN PROGRESS';
如果发现存在较大的SCN间隙,可以考虑优化数据库性能,例如通过调整日志文件的大小、优化表结构等。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。