云原生系列四:Yelp 如何在 Kubernetes 上运行 Kafka

简介: ​案例分享 | Yelp 如何在 Kubernetes 上运行 Kafka(第 1 部分 - 架构)这几天小叶秋在网上冲浪的时候,发现一些与云原生相关的文章,特地拿来与大家分享~~本文译自 Kafka on PaaSTA: Running Kafka on Kubernetes at Yelp (Part 1 - Architecture)[1]。作者:Lennart Rudolph在 Yelp,Kafka 每天接收数百亿条消息来推进数据驱动并为关键业务管道和服务提供支持。我们最近通过在 PaaSTA (Yelp 自己的平台即服务)上运行集群,对 Kafka 部署架构进行一些改进。

案例分享 | Yelp 如何在 Kubernetes 上运行 Kafka(第 1 部分 - 架构)

image.gif编辑

这几天小叶秋在网上冲浪的时候,发现一些与云原生相关的文章,特地拿来与大家分享~~

本文译自 Kafka on PaaSTA: Running Kafka on Kubernetes at Yelp (Part 1 - Architecture)[1]。作者:Lennart Rudolph

在 Yelp,Kafka 每天接收数百亿条消息来推进数据驱动并为关键业务管道和服务提供支持。我们最近通过在 PaaSTA (Yelp 自己的平台即服务)上运行集群,对 Kafka 部署架构进行一些改进。基于 K8s 的部署利用了 Kafka 的自定义 Kubernetes operator 以及用于生命周期管理的 Cruise Control 。

image.gif编辑

架构改进及动机

过去,我们所有的 Kafka 集群都在 AWS 的专用 EC2 实例上运行。Kafka 直接部署在这些主机上,配置管理高度依赖 Puppet 仓库。这种部署模式有些繁琐,创建一个新集群平均需要两个多小时。因此我们着手开发一种新的部署模型,以下是改进目标:

    • 减少对 Puppet 缓慢运行的依赖。
    • 在内部推广 PaaSTA ,并利用其 CLI 工具来提高生产力。
    • 提高生命周期管理系统的可维护性。
    • 简化执行操作系统主机升级和 Kafka 版本升级的过程。
    • 简化新 Kafka 集群的创建(与我们部署服务的方式一致)。
    • 加快代理退役,简化主机故障的恢复过程。拥有重新连接 EBS 卷的能力,避免不必要地网络资源消耗,节省资金。

    Yelp 之前开发了在 Kubernetes 上运行有状态应用程序的实践(例如,Cassandra on PaaSTA and Flink on PaaSTA),因此 PaaSTA 是这个用例的自然选择。

    新的部署架构利用 PaaSTA 池(或主机组)作为底层基础设施。Kafka 代理 pod 调度在 Kubernetes 节点上,并且代理 pod 具有可分离的 EBS 卷。新架构的两个关键组件是 Kafka operator 和 Cruise Control,后面会更详细地介绍这两者。我们在 PaaSTA 上部署了我们内部的 Kafka Kubernetes Operator 实例和各种 Sidecar 服务,并且每个 Kafka 集群的 PaaSTA 上也部署了一个 Cruise Control 实例。

    新旧架构的两个关键区别是 Kafka 现在运行在 Docker 容器中,我们的配置管理方法不再依赖 Puppet。配置管理现在与基于 PaaSTA 的配置管理解决方案一致,在该解决方案中,只要 YAML 文件更改提交到服务配置存储库, Jenkins 就会传播这些变化。由于这次架构大修,我们才能够利用现有的 PaaSTA CLI 工具来查看集群的状态、读取日志并重新启动集群。另一个好处是,能够通过提供必要的配置(见下文)来部署新的 Kafka 集群,这种方法使我们配置新 Kafka 集群的时间减半。

    image.gif编辑

    example-test-prod:
      deploy_group: prod.everything
      pool: kafka
      brokers: 15
      cpus: 5.7  # CPU unit reservation breakdown: (5.7 (kafka) + 0.1 (hacheck) + 0.1 (sensu)) + 0.1 (kiam) = 6.0 (as an example, consider that our pool is comprised of m5.2xlarge instances)
      mem: 26Gi
      data: 910Gi
      storage_class: gp2
      cluster_type: example
      cluster_name: test-prod
      use_cruise_control: true
      cruise_control_port: 12345
      service_name: kafka-2-4-1
      zookeeper:
        cluster_name: test-prod
        chroot: kafka-example-test-prod
        cluster_type: kafka_example_test
      config:
        unclean.leader.election.enable: "false"
        reserved.broker.max.id: "2113929216"
        request.timeout.ms: "300001"
        replica.fetch.max.bytes: "10485760"
        offsets.topic.segment.bytes: "104857600"
        offsets.retention.minutes: "10080"
        offsets.load.buffer.size: "15728640"
        num.replica.fetchers: "3"
        num.network.threads: "5"
        num.io.threads: "5"
        min.insync.replicas: "2"
        message.max.bytes: "1000000"
        log.segment.bytes: "268435456"
        log.roll.jitter.hours: "1"
        log.roll.hours: "22"
        log.retention.hours: "24"
        log.message.timestamp.type: "LogAppendTime"
        log.message.format.version: "2.4-IV1"
        log.cleaner.enable: "true"
        log.cleaner.threads: "3"
        log.cleaner.dedupe.buffer.size: "536870912"
        inter.broker.protocol.version: "2.4-IV1"
        group.max.session.timeout.ms: "300000"
        delete.topic.enable: "true"
        default.replication.factor: "3"
        connections.max.idle.ms: "3600000"
        confluent.support.metrics.enable: "false"
        auto.create.topics.enable: "false"
        transactional.id.expiration.ms: "86400000"

    image.gif

    运行 Kafka 2.4.1 版本的有 15 个代理的集群的示例配置文件

    新架构详解

    新架构的一个主要组件是 Kafka Kubernetes operator,它负责管理 Kafka 集群的状态。虽然我们仍然依赖外部 ZooKeeper 集群来维护集群元数据,但消息数据仍然保存在 Kafka 代理的磁盘中。由于 Kafka 用户依赖持久存储来检索数据,在 Kubernetes 中,Kafka 被认为是一个有状态的应用程序。Kubernetes 公开了用于管理有状态应用程序的工作负载 API 对象 。

    (例如 StatefulSets ),但 Kubernetes 默认没有 Kafka-specific 结构。因此,需要标准 Kubernetes API 之外的其他功能来维护我们的实例。用 Kubernetes 的说法,operator 是一个自定义控制器,它允许我们公开这种特定的应用功能。

    image.gif编辑Operator 负责确定 Kubernetes 需要对集群执行操作的时间。它有一个协调循环,观察自定义集群资源的状态,并通过与 Kubernetes API 交互以及调用另一个关键架构组件 Cruise Control 公开的 API 来协调差异。

    Cruise Control 是 LinkedIn 开发的开源 Kafka 集群管理系统。目标是减少与维护大型 Kafka 集群的开销。每个 Kafka 集群都有自己专用的 Cruise Control 实例,每个集群的 Operator 与其 Cruise Control 实例交互以执行生命周期管理操作,如检查集群的健康状况、重新平衡主题分区和添加/删除代理。

    Cruise Control 使用的范式在许多方面与 operator 使用的范式相似。Cruise Control 监控 Kafka 集群的状态,生成一个内部模型,扫描异常目标,并尝试解决异常问题。它公开了用于各种管理任务和上述生命周期管理操作的 API 。这些 API 可替代我们之前的临时生命周期管理实现,我们使用 EC2 支持的代理来执行条件性再平衡操作或与 SNS 和 SQS 等 AWS 资源进行互动,将这些整合到一项服务中帮助简化生命周期管理栈。

    image.gif编辑

    将这些组件放在一起就形成了一个集群架构,我们通过内部配置管理系统定义了一个 CRD,并将其与自定义 Kafka Docker 镜像结合起来。Kafka Kubernetes operator 在与 Kubernetes API 的交互中使用配置、CRD 和 Docker 镜像 ,在 Kubernetes 主服务器上生成 KafkaCluster 自定义资源,因此可以在 Kubernetes 节点上调度 Kafka pod,operator 通过 Kubernetes API 和 Cruise Control 服务公开的 API 来监督和维护集群的健康状况。我们可以通过 Cruise Control UI 或 PaaSTA CLI 工具观察集群并与之交互。

    最后,通过一个示例场景来说明整个操作流程。考虑通过删除代理来缩小集群规模的情况。一个开发者更新集群的配置并减少代理的数量,从而更新 Kafka 集群的 CRD。作为协调循环的一部分,operator 认识到期望的集群状态与 StatefulSet 中表示的实际状态不同,所以它要求 Cruise Control 删除代理,Cruise Control API 返回有关删除任务的信息,operator 使用这个任务的元数据注释退役 pod。当 Cruise Control 执行将分区从代理移开的过程,operator 会通过向 Cruise Control 发出请求来例行检查停用的状态。一旦任务被标记为已完成,operator 将移除 pod ,集群规范的内部状态就被调和了。

    image.gif编辑

    架构设计好后,我们会做什么?

    在设计了这个架构之后,我们构建了一个将 Kafka 集群从 EC2 无缝迁移到 PaaSTA 的流程。截止目前,我们已经将许多集群迁移到 PaaSTA,并使用新架构部署了新集群。我们还在继续调整硬件选择,以适应集群的不同属性。

    引用链接

    [1]

    原文链接: https://engineeringblog.yelp.com/2021/12/kafka-on-paasta-part-one.html

    本期分享到此结束,关注博主不迷路,叶秋学长带你上高速~~

    相关文章
    |
    3月前
    |
    Kubernetes Cloud Native 调度
    云原生技术专题 | 云原生容器编排问题盘点,总结分享年度使用Kubernetes的坑和陷阱
    随着云原生的兴起,越来越多的应用选择基于Kubernetes进行部署,可以说Kubernetes 是最流行的容器编排和部署平台。它的强大功能特性,可以保障在生产中可靠地运行容器化应用程序,相关的DevOps等工具也应运而生,下面就是小编简单化了一个Kubernetes的逻辑架构图。
    327 9
    云原生技术专题 | 云原生容器编排问题盘点,总结分享年度使用Kubernetes的坑和陷阱
    |
    12天前
    |
    Kubernetes 监控 Cloud Native
    构建高效云原生应用:基于Kubernetes的微服务治理实践
    【4月更文挑战第13天】 在当今数字化转型的浪潮中,企业纷纷将目光投向了云原生技术以支持其业务敏捷性和可扩展性。本文深入探讨了利用Kubernetes作为容器编排平台,实现微服务架构的有效治理,旨在为开发者和运维团队提供一套优化策略,以确保云原生应用的高性能和稳定性。通过分析微服务设计原则、Kubernetes的核心组件以及实际案例,本文揭示了在多变的业务需求下,如何确保系统的高可用性、弹性和安全性。
    16 4
    |
    24天前
    |
    消息中间件 NoSQL Kafka
    云原生最佳实践系列 5:基于函数计算 FC 实现阿里云 Kafka 消息内容控制 MongoDB DML 操作
    该方案描述了一个大数据ETL流程,其中阿里云Kafka消息根据内容触发函数计算(FC)函数,执行针对MongoDB的增、删、改操作。
    |
    1月前
    |
    Kubernetes Cloud Native Docker
    【云原生】kubeadm快速搭建K8s集群Kubernetes1.19.0
    Kubernetes 是一个开源平台,用于管理容器化工作负载和服务,提供声明式配置和自动化。源自 Google 的大规模运维经验,它拥有广泛的生态支持。本文档详细介绍了 Kubernetes 集群的搭建过程,包括服务器配置、Docker 和 Kubernetes 组件的安装,以及 Master 和 Node 的部署。此外,还提到了使用 Calico 作为 CNI 网络插件,并提供了集群功能的测试步骤。
    219 0
    |
    1月前
    |
    Kubernetes Cloud Native Devops
    云原生技术落地实现之二KubeSphere DevOps 系统在 Kubernetes 集群上实现springboot项目的自动部署和管理 CI/CD (2/2)
    云原生技术落地实现之二KubeSphere DevOps 系统在 Kubernetes 集群上实现springboot项目的自动部署和管理 CI/CD (2/2)
    51 1
    |
    1月前
    |
    Kubernetes 网络协议 Java
    在Kubernetes上运行Flink应用程序时
    【2月更文挑战第27天】在Kubernetes上运行Flink应用程序时
    36 10
    |
    1月前
    |
    弹性计算 运维 Kubernetes
    云原生K8S场景自动化响应ECS系统事件
    客户云原生K8S场景下,通过社区开源NPD+Draino+Autoscaler零开发,对接响应ECS主动运维事件,通过自动响应事件减少非预期宕机。
    |
    1月前
    |
    消息中间件 Cloud Native Kafka
    活动报名|AutoMQ x 阿里云云原生创新论坛(2024.03.09)见证“新一代云原生 Kafka ”重磅发布!
    新一年, AutoMQ 首场线下活动重磅来袭!2024年3月9日,由 AutoMQ 与阿里云联合举办的云原生创新论坛将于杭州与大家见面,双方联合重磅发布新一代云原生 Kafka ——AutoMQ On-Prem 版本 !现场将会分享如何通过云原生和存算分离架构实现 Kafka 产品的10倍成本优化,并保持秒级分区无损迁移。另外,活动现场还有来自得物的技术专家分享 AutoMQ 在生产场景中的应用实践,以及阿里云的资深专家为大家剖析多 AZ 块存储的原理。
    124 0
    活动报名|AutoMQ x 阿里云云原生创新论坛(2024.03.09)见证“新一代云原生 Kafka ”重磅发布!
    |
    3月前
    |
    Kubernetes Cloud Native 网络协议
    【云原生】Kubernetes介绍
    【云原生】Kubernetes介绍
    38 1
    |
    1月前
    |
    人工智能 监控 Cloud Native
    iLogtail 2.0 来了;通义灵码下载量破百万丨阿里云云原生 2 月产品月报
    iLogtail 2.0 来了;通义灵码下载量破百万丨阿里云云原生 2 月产品月报

    热门文章

    最新文章

    推荐镜像

    更多