开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink中kafka总共有16266条数据, 但是消费到6144就停止并报这两条日志了?

Flink中kafka总共有16266条数据, 但是消费到6144就停止并报这两条日志了?image.png

展开
收起
真的很搞笑 2024-01-09 12:15:59 57 0
1 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    从你给出的日志来看,问题是关于Kafka消费者未能获取足够的offsets而导致程序挂起。这种现象通常发生在消费者的偏移量设置不正确的情况下。

    首先,你需要确认一下这两个Consumer实例所对应的Topic名称以及Group ID是否一致。如果不是的话,可能会出现一个Consumer实例已经读取到了某个特定位置的数据,但另一个却还在等待初始Offset的位置上。

    其次,查看下这两个Consumer实例的group.id属性是否相同。因为每个不同的组ID对应的是不同的消息队列分区,所以不同组内的Consumer应该有不同的偏移量设定才能正常工作。

    最后,建议你在生产环境中添加一些额外的信息以便于定

    2024-01-09 14:33:16
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载