使用flink cdc datastream postgresql 中初始化获取全量数据,总共700W数据,同步到100W就没不动了,slot还在占用中,请问这是怎么问题呢?
在使用Flink-CDC进行数据同步时,如果遇到获取全量数据时卡在100W数据不动,并且slot仍然被占用的情况,可能有几个原因导致这个问题:
需要根据实际情况进行排查和分析,找出问题的具体原因并进行相应的修复和调整。
这个问题可能是由于Flink CDC Connector在初始化时获取全量数据导致的。当同步到100W条数据后,可能会出现死锁或者资源竞争等问题,导致slot被占用无法释放。
为了解决这个问题,可以尝试以下方法:
调整并行度:将并行度调小,可以减少资源竞争的可能性。
调整超时时间:将超时时间调大,可以给Flink更多的时间来处理数据,避免因为处理时间过长而导致的死锁。
使用异步方式:将同步方式改为异步方式,可以避免因为同步过程中的资源竞争而导致的问题。
检查数据库连接池配置:如果使用了数据库连接池,需要检查连接池的配置是否正确,避免因为连接池中的连接数不足而导致的问题。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。