Flink1.17.1 sink kafka, 总是输出 disconnected 的日志, 正常吗?
INFO org.apache.kafka.clients.NetworkClient [] - [Producer clientId=producer-4] Node 107928 disconnected.
当 Flink 的 Kafka Sink(kafka-connector)输出 "disconnected" 的日志时,通常是因为连接 Kafka 服务器的客户端与 Kafka 服务器失去了连接。这可能是由于以下一些原因引起的:
网络问题:可能由于网络不稳定或中断,导致 Flink 客户端与 Kafka 服务器之间的连接断开。您可以检查网络连接是否正常,尝试重启网络设备或与网络管理员联系。
Kafka 服务器故障:Kafka 服务器可能由于各种原因(如内部错误、负载过高、资源不足等)而无法正常响应请求,导致连接断开。您可以检查 Kafka 服务器的运行状态,查看是否有其他异常或错误日志。
配置问题:可能是 Flink Kafka Sink 的配置问题导致连接断开。请确保您在 Flink 作业中正确配置了 Kafka Sink,并提供了正确的 Kafka 服务器地址、端口号、主题等信息。
您可以根据以下步骤来调试和解决问题:
检查网络连接是否正常,确保 Flink 客户端可以正常访问 Kafka 服务器。
检查 Kafka 服务器的运行状态,查看是否存在其他异常或错误。
检查 Flink Kafka Sink 的配置,确保提供了正确的 Kafka 服务器地址、端口号和主题等信息。
可以尝试重启 Flink 作业以重新建立到 Kafka 服务器的连接。
如果问题仍然存在,建议您查看更详细的日志和错误信息,以便更好地定位和解决问题。此外,您还可以参考 Flink 和 Kafka 官方文档,以获取更多关于 Kafka Sink 的配置和故障排除的信息。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。