开发者社区> 问答> 正文

flink读取kafka超时怎么解决?

Caused by: java.lang.Exception: org.apache.kafka.common.errors.TimeoutException: Timeout of 60000ms expired before the position for partition dercd_seeme-3 could be determined 大佬们flink读取kafka遇到过这个错误没?现在情况是 每次重启任务都会出现这个错,但是奇怪的是多试几次任务才能运行起来。这个任务的特点读取得topic较多(6个),数据量比较大。难道是读取得数据量太大给kafka集群的broker造成了很大的负载导致请求超时?

*来自志愿者整理的flink邮件归档

展开
收起
毛毛虫雨 2021-12-06 16:21:26 1545 0
1 条回答
写回答
取消 提交回答
  • 看报错是说 dercd_seeme-3 partition 读取异常,可以检查下上游kafka的该partition是否有异常。

    *来自志愿者整理的flink邮件归档

    2021-12-06 16:55:23
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Flink CDC Meetup PPT - 龚中强 立即下载
Flink CDC Meetup PPT - 王赫 立即下载
Flink CDC Meetup PPT - 覃立辉 立即下载