Flink CDC中debezium-reader-0 这个线程超多,是不是存在线程泄露 有谁遇到过吗?是不是dez的bug
Flink CDC 中 debezium-reader-0 这个线程超多,并不一定就存在线程泄露。它可能是由于以下原因造成的:
Debezium 的并行度设置过高。 Debezium 的并行度设置过高,导致创建了太多 Debezium 读取器线程。可以通过减少 Debezium 的并行度来解决这个问题。
Flink Job 的资源配置不足。 Flink Job 的资源配置不足,导致 Flink Job 无法创建足够的线程来处理 Debezium 的读取事件。可以通过增加 Flink Job 的资源配置来解决这个问题。
Flink Job 的任务并行度设置过高。 Flink Job 的任务并行度设置过高,导致 Flink Job 无法创建足够的线程来处理 Debezium 的读取事件。可以通过减少 Flink Job 的任务并行度来解决这个问题。
为了确定是否存在线程泄露,你可以尝试以下步骤:
检查 Flink Job 的运行日志,查看是否有线程泄露的异常信息。
使用 jstack 命令来查看 Flink Job 的线程堆栈,查看是否有线程出现死锁或内存泄露的情况。
使用 top 命令来查看 Flink Job 占用的 CPU 和内存资源,查看是否有资源泄露的情况。
如果以上步骤都没有找到线程泄露的证据,那么就很可能是 Debezium 的并行度设置过高、Flink Job 的资源配置不足或者 Flink Job 的任务并行度设置过高导致的。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。