开发者社区> 问答> 正文

kafka appender限流怎么办?

hi all我们flink平台想收集所有流任务(5000+)error日志到kafka做进一步分析,通过 log4j2 的原生kafkaappender实现 大家是否遇到过这样的场景:大量任务error日志突增,打满kafka,导致整条链路瘫痪 小问题: 1.是否有什么方法做kafka appender的限速,比如:每秒error log达到10条,我就丢弃 2.有其他方式,避免平台无法预知的抖动,导致error日志突曾导致的kafka瓶颈*来自志愿者整理的flink邮件归档

展开
收起
彗星halation 2021-12-02 16:44:47 438 0
1 条回答
写回答
取消 提交回答
  • 只有 error 级别的日志这个数据量我理解应该不大吧? 是 CPU 被打满 还是磁盘 IO 被打满了?*来自志愿者整理的FLINK邮件归档

    2021-12-02 16:58:46
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Java Spring Boot开发实战系列课程【第16讲】:Spring Boot 2.0 实战Apache Kafka百万级高并发消息中间件与原理解析 立即下载
MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载
消息队列kafka介绍 立即下载