请问,flink写kafka有人碰到下面这个错误吗,这是怎么回事? Pending record count must be zero at this point
你的问题 Flink发送一条消息前会计数一下 然后得到服务器响应的时候会减少计数,然后你的sflush操作巧合是 发送了一批假设是100个,然后返回了99个 然后还有一个没返回的时候 你调用了flush方法。
可以尝试过将下图这个参数设置成false,最后是可能和你的序列化有关
此答案来自钉钉群“【2】Apache Flink China 社区”
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。