Flink CDC2.4.1中是不是不支持mongodb同步时指定过滤条件了?
2.3的文档里有,2.4没了。
copy.existing.pipeline optional (none) String An array of JSON objects describing the pipeline operations to run when copying existing data.
This can improve the use of indexes by the copying manager and make copying more efficient. eg. [{"$match": {"closed": "false"}}] ensures that only documents in which the closed field is set to false are copied.?
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
是的,Flink CDC 2.4.1 版本中不支持 MongoDB 同步时指定过滤条件。
MongoDB 同步是 Flink CDC 的一个功能,它可以从 MongoDB 数据库读取数据并将其写入 Flink 流处理引擎中。该功能在 Flink CDC 2.4.1 版本中被删除了,因为它存在一些问题。
如果您需要使用 Flink CDC 从 MongoDB 数据库读取数据,则需要使用 Flink CDC 2.4.0 版本或更早版本。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。