开发者社区> 问答> 正文

Flink报错org.apache.flink.streaming.connectors.kafka

已解决

Flink报错org.apache.flink.streaming.connectors.kafka.FlinkKafkaException: Too many ongoing snapshots. Increase kafka producers pool size or decrease number of concurrent checkpoints

展开
收起
阿里云服务支持 2022-12-20 14:33:09 276 0
1 条回答
写回答
取消 提交回答
  • 官方回答

    【报错原因】

    checkpoint超时时长设置太短,失败了几次就会报错。

    【解决方案】

    建议用户调大checkpoint的超时时长,超时时长参数,execution.checkpointing.timeout。

    2022-12-20 14:43:01
    赞同 展开评论 打赏
来源圈子
更多
收录在圈子:
作为全球云计算的领先者,阿里云为全球230万企业提供着云计算服务,服务范围覆盖200多个国家和地区。我们致力于为企业、政府等组织机构提供安全可靠的云计算服务,给用户带来极速愉悦的服务体验。
问答排行榜
最热
最新

相关电子书

更多
Flink CDC Meetup PPT - 龚中强 立即下载
Flink CDC Meetup PPT - 王赫 立即下载
Flink CDC Meetup PPT - 覃立辉 立即下载

相关镜像