通过一个Kafka故障解决过程阐述架构师必须具备的架构思维

简介: 通过一个Kafka故障解决过程阐述架构师必须具备的架构思维

1、问题描述


某一天突然收到开发环境Kafka报 IO Exception(many open files),其相关的日志如下:

278ee807c4e6048c5119c4ab91cb8be5.png

5eeae27dcaa472aab2ff793280e98653.png

问题是发生在公司的开发环境,为了避免信息泄露,我在本地进行了模拟,不影响本次问题的分析与学习。


2、问题分析


bdf4586c5f4d6d4a5d83c95ede7a967d.png

首先我们要能看懂Kafka-manager上的一些监控指标,topic列表中关于topic的信息项如下所示:


  • topic
    topic名称
  • Partitions
    分区数
  • Brokers
    该topic 队列分布的broker数量。
    Brokers Spread %
    该topic中队列在Broker中的使用率,例如集群中有5个broker,但topic只在4个broker上创建了队列,那使用率为80%。
    Brokers Skew %
    topic的队列倾斜率。如果集群中存在5个broker节点,topic的总分区数量为4,副本因子为2,但这些队列只分布在其中的4台broker中。那topic的broker使用率(Broker Spread)为80%


众所周知,引入多节点的目的就是负载均衡,队列在broker中的分配自然是希望越均衡越好,期望每台broker上存储2个队列(副本因子为2,总共8个队列),表示没有发生倾斜,如果一台broker中的存在3个队列,而另外一个broker上1个队列,那说明发生了倾斜,计算公式为超过平均队列数的broker节点个数除以总所在Broker数量,其Brokers Skew等于(1/3)=33%。
Brokers Leader Skew %

topic分区中Leader分区的倾斜率。在Kafka中,只有分区的Leader节点具有读写权限,真正影响性能读写性能的是Leader分区是否均衡,试想一下,如果一个topic有6个分区,但所有的Leader分区只分布在一两个Broker节点上,这个topic的写入、读取性能将受到制约,这个值建议维持在0%


Replicas


副本数、副本因子,即一个分区数据存储的份数,该数值包含Leader分区。
Under Replicated %
没有跟上复制进度的副本比例,在Kafka的复制模型中,主分区负责读写,该复制组内的其他副本从主节点同步数据,如果跟不上主节点的复制进度,将被提出ISR,被剔除ISR的副本不具备选举Leader的资格,这个数据如果长期或频繁高于0,说明集群一定出现了问题


Producer Message/Sec

消息发送实时TPS,通过JMX采集,需要在kafka-manager中开启如下参数:
f8b7a5dffdeca6a4ae1e7fab3bad9d8f.png

  • Summed Recent Offsets
    该主题当前最大的消息偏移量。


经过对Topic列表观察,发现开发环境存在大量的topic都只有一个队列,并且都分布在第一节点上,其截图如下:

7bac8f719ac6dcedfb348da7b8bdb733.png

从界面上对应的指标:Brokers Spread即Broker的利用率只有3分之一,抽取几个数据量大的主题,判断其路由信息,得知都分布在第一个Broker节点上,这样就导致其中一个节点大量出现文章开头部分提到的错误:Too many open files


3、解决方案


3.1 扩分区


问题定位出来了,由于Broker利用率不均匀,大量topic只创建了一个队列,并且还集中落到了第一个节点。


针对这种情况,首先想到的方案:扩分区。


3.1.1 通过Kafka-manager


Step1:在Kafka-manager的topic列表,点击具体的topic,进入详情页面,点击[add Partitions],如图所示:

12fef52a7b3f4afec0f101e26415ec88.png

Step2:点击增加分区,弹出如下框:

4f98276fa0d26792b0bfe821e4946aee.png

说明如下:


  • Partitions
    扩容后的总分区个数,并不是本次增加的分区个数。
  • Brokers
    分区需要分布的Broker,建议全选,充分利用整个集群的性能。


3.1.2 运维命令


可以通过Kafka提供的kafka-topics命令,修改topic的分区,具体参考如下:

46b9b90d5c29f9257633bc2141bcff07.png

温馨提示:对这些运维命令不熟悉没关系,基本都提供了--help


3.2 分区移动


由于存在大量的只有一个分区的topic,并且这些topic都分布到了第一个节点,是不是可以将某些topic的分区移动到其他节点呢?


接下来介绍一下分区移动如何操作。


3.2.1 kafka-manager


Step1:进入topic详情页面,点击[Generate Partition Assignments],如下图所示:

48a1ade79a145e218c9e70e206294b66.png

Step2:进入页面后,选择需要迁移到的brroker,还可以改变topic的副本因子,最后点击[Generate Partition Assignments],如下图所示:

e714ae036a8ba8a0cb6d5ce4b7bf018c.png

Step3:点击完成后,此时只是生成了分区迁移计划,并没有真正的执行,需要点击[Reassign Parttions]按钮。

a1392fe5ebf070a98a4969ad9fb24d6e.png


3.2.2 运维命令


Step1:首先我们需要准备需要执行迁移的topic信息,例如将如下信息保存在文件dw_test_kafka_040802-topics-to-move.json中。

{"topics":
    [
        {"topic":"dw_test_kafka_040802"}
    ],
    "version": 1
}

Step2:使用kafka提供的kafka-reassign-partitions.sh命令生成执行计划

d79954b1a0ff633aeaaeb1672ec3e8d0.png

上面的参数其实对照kafka-manager的图理解起来会更快,点出如下关键点:


  • --broker-list
    分区需要分布的broker。如果多个,使用双引号,例如 "0,1,2"。
  • --topics-to-move-json-file
    需要执行迁移的topic列表。
  • --generate
    表示生成执行计划(并不真正执行)


执行成功后会输出当前的分区分布计划与新的执行计划,通常我们可以先将当前的执行计划存储到一个备份目录中,将新生成的计划存储到一个文件中。


Step3:使用kafka提供的kafka-reassign-partitions.sh命令执行分区迁移计划

b5618def22dc205fcf507e5c0f4e74e2.png

其关键点如下:


  • --reassignment-json-file
    指定上一步骤生成的执行计划。


执行成功过后输出Successfully,重分区是一个非常复杂的过程,命令执行完成后,并不会真正执行完成,可以通过查询主题的详细信息来判断是否真正迁移成功。

430baea2fe259dff3b1d2239af8c92cb.png


4、进阶与架构思维


通过kafka-reassign-partitions.sh对分区进行迁移,会影响业务方的正常使用吗?即会影响消息的消费与发送吗?


作为一名架构师,特别是对中间件做变更时,考虑对业务的影响范围是必备的一步,直接影响到实施的复杂度。


我们需要对分区迁移的实现原理做进一步探究,本文暂不从源码角度详细剖析,只是举例阐述一下分区迁移的实现机制。


需求:一个TopicA的其中一个分区p0,分布在broker id为1,2,3上,目前要将其迁移到brokerId为4,5,6。


在介绍迁移过程之前,我们先定义三个变量:


  • OAR
    迁移前分区的分布情况。
  • RAR
    迁移后的分区分布情况
  • AR
    当前运行过程中的分区分布情况


结合上述例子,其整个迁移步骤如下:

image.png

从上面这个过程,只有在Leader选举期间会对消息发送、消息消费造成影响,但通过Zookeeper实现Leader选举可在秒级别响应,结合Kafka消息发送端的缓冲队列、重试机制,在理论上可以做到对业务无影响。


相关文章
|
3月前
|
消息中间件 Java Kafka
Java 事件驱动架构设计实战与 Kafka 生态系统组件实操全流程指南
本指南详解Java事件驱动架构与Kafka生态实操,涵盖环境搭建、事件模型定义、生产者与消费者实现、事件测试及高级特性,助你快速构建高可扩展分布式系统。
214 7
|
19天前
|
存储 消息中间件 Kafka
Confluent 首席架构师万字剖析 Apache Fluss(二):核心架构
原文:https://jack-vanlightly.com/blog/2025/9/2/understanding-apache-fluss 作者:Jack Vanlightly 翻译:Wayne Wang@腾讯 译注:Jack Vanlightly 是一位专注于数据系统底层架构的知名技术博主,他的文章以篇幅长、细节丰富而闻名。目前 Jack 就职于 Confluent,担任首席技术架构师,因此这篇 Fluss 深度分析文章,具备一定的客观参考意义。译文拆成了三篇文章,本文是第二篇。
182 19
|
4月前
|
XML 设计模式 人工智能
用系统架构思维,告别“意大利面条式”系统提示词
本文作者分享了自己在研究如何编写强大且可维护的系统级提示词时的经历。
|
6月前
|
消息中间件 数据可视化 Kafka
docker arm架构部署kafka要点
本内容介绍了基于 Docker 的容器化解决方案,包含以下部分: 1. **Docker 容器管理**:通过 Portainer 可视化管理工具实现对主节点和代理节点的统一管理。 2. **Kafka 可视化工具**:部署 Kafka-UI 以图形化方式监控和管理 Kafka 集群,支持动态配置功能, 3. **Kafka 安装与配置**:基于 Bitnami Kafka 镜像,提供完整的 Kafka 集群配置示例,涵盖 KRaft 模式、性能调优参数及数据持久化设置,适用于高可用生产环境。 以上方案适合 ARM64 架构,为用户提供了一站式的容器化管理和消息队列解决方案。
508 10
|
5月前
|
消息中间件 存储 大数据
阿里云消息队列 Kafka 架构及典型应用场景
阿里云消息队列 Kafka 是一款基于 Apache Kafka 的分布式消息中间件,支持消息发布与订阅模型,满足微服务解耦、大数据处理及实时流数据分析需求。其通过存算分离架构优化成本与性能,提供基础版、标准版和专业版三种 Serverless 版本,分别适用于不同业务场景,最高 SLA 达 99.99%。阿里云 Kafka 还具备弹性扩容、多可用区部署、冷热数据缓存隔离等特性,并支持与 Flink、MaxCompute 等生态工具无缝集成,广泛应用于用户行为分析、数据入库等场景,显著提升数据处理效率与实时性。
|
12月前
|
大数据
【赵渝强老师】大数据主从架构的单点故障
大数据体系架构中,核心组件采用主从架构,存在单点故障问题。为提高系统可用性,需实现高可用(HA)架构,通常借助ZooKeeper来实现。ZooKeeper提供配置维护、分布式同步等功能,确保集群稳定运行。下图展示了基于ZooKeeper的HDFS HA架构。
248 0
|
10月前
|
测试技术 双11 开发者
一文分析架构思维之建模思维
软件里的要素不是凭空出现的,都是源于实际的业务。本文从软件设计本源到建模案例系统的介绍了作者对于建模的思维和思考。
|
12月前
|
消息中间件 缓存 架构师
关于 Kafka 高性能架构,这篇说得最全面,建议收藏!
Kafka 是一个高吞吐量、高性能的消息中间件,关于 Kafka 高性能背后的实现,是大厂面试高频问题。本篇全面详解 Kafka 高性能背后的实现。关注【mikechen的互联网架构】,10年+BAT架构经验倾囊相授。
关于 Kafka 高性能架构,这篇说得最全面,建议收藏!

热门文章

最新文章