pgsql到kafka跑了一段时间后就会报这个错误,有大佬知道是什么原因引起的吗 com.ververica.cdc.connectors.shaded.org.apache.kafka.connect.errors.ConnectException: An exception occurred in the change event producer. This connector will be stopped.
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
问题描述: 您在使用Debezium将PostgreSQL数据同步至Kafka过程中,遇到错误信息:com.ververica.cdc.connectors.shaded.org.apache.kafka.connect.errors.ConnectException: An exception occurred in the change event producer. This connector will be stopped.
这表明Debezium连接器在生成变更事件时遇到了异常,导致连接器停止工作。
原因分析:
A slave with the same server_uuid/server_id as this slave has connected to the master
”,这通常意味着另一个具有相同server_uuid/server_id的Debezium实例或复制从库已经连接到MySQL主库。解决步骤:
检查并解决并发Slave问题:
server.id
,以避免冲突。验证网络和SSL配置:
jdbc.properties.useSSL=false
是否正确应用且符合您的安全策略。查看详细日志:
/opt/kafka/logs/connect.log
,寻找更详细的错误信息和上下文。这有助于定位具体的问题点,比如数据格式不匹配、权限不足或是资源限制等。监控与重试机制:
注意事项:
通过上述步骤,您可以系统地诊断并尝试解决导致Debezium连接器停止的问题。如果问题依旧存在,建议进一步查阅官方文档或联系技术支持提供更详细的错误日志进行深入分析。您可以复制页面截图提供更多信息,我可以进一步帮您分析问题原因。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。