云原生系列四:Yelp 如何在 Kubernetes 上运行 Kafka

简介: ​案例分享 | Yelp 如何在 Kubernetes 上运行 Kafka(第 1 部分 - 架构)这几天小叶秋在网上冲浪的时候,发现一些与云原生相关的文章,特地拿来与大家分享~~本文译自 Kafka on PaaSTA: Running Kafka on Kubernetes at Yelp (Part 1 - Architecture)[1]。作者:Lennart Rudolph在 Yelp,Kafka 每天接收数百亿条消息来推进数据驱动并为关键业务管道和服务提供支持。我们最近通过在 PaaSTA (Yelp 自己的平台即服务)上运行集群,对 Kafka 部署架构进行一些改进。

案例分享 | Yelp 如何在 Kubernetes 上运行 Kafka(第 1 部分 - 架构)

image.gif编辑

这几天小叶秋在网上冲浪的时候,发现一些与云原生相关的文章,特地拿来与大家分享~~

本文译自 Kafka on PaaSTA: Running Kafka on Kubernetes at Yelp (Part 1 - Architecture)[1]。作者:Lennart Rudolph

在 Yelp,Kafka 每天接收数百亿条消息来推进数据驱动并为关键业务管道和服务提供支持。我们最近通过在 PaaSTA (Yelp 自己的平台即服务)上运行集群,对 Kafka 部署架构进行一些改进。基于 K8s 的部署利用了 Kafka 的自定义 Kubernetes operator 以及用于生命周期管理的 Cruise Control 。

image.gif编辑

架构改进及动机

过去,我们所有的 Kafka 集群都在 AWS 的专用 EC2 实例上运行。Kafka 直接部署在这些主机上,配置管理高度依赖 Puppet 仓库。这种部署模式有些繁琐,创建一个新集群平均需要两个多小时。因此我们着手开发一种新的部署模型,以下是改进目标:

    • 减少对 Puppet 缓慢运行的依赖。
    • 在内部推广 PaaSTA ,并利用其 CLI 工具来提高生产力。
    • 提高生命周期管理系统的可维护性。
    • 简化执行操作系统主机升级和 Kafka 版本升级的过程。
    • 简化新 Kafka 集群的创建(与我们部署服务的方式一致)。
    • 加快代理退役,简化主机故障的恢复过程。拥有重新连接 EBS 卷的能力,避免不必要地网络资源消耗,节省资金。

    Yelp 之前开发了在 Kubernetes 上运行有状态应用程序的实践(例如,Cassandra on PaaSTA and Flink on PaaSTA),因此 PaaSTA 是这个用例的自然选择。

    新的部署架构利用 PaaSTA 池(或主机组)作为底层基础设施。Kafka 代理 pod 调度在 Kubernetes 节点上,并且代理 pod 具有可分离的 EBS 卷。新架构的两个关键组件是 Kafka operator 和 Cruise Control,后面会更详细地介绍这两者。我们在 PaaSTA 上部署了我们内部的 Kafka Kubernetes Operator 实例和各种 Sidecar 服务,并且每个 Kafka 集群的 PaaSTA 上也部署了一个 Cruise Control 实例。

    新旧架构的两个关键区别是 Kafka 现在运行在 Docker 容器中,我们的配置管理方法不再依赖 Puppet。配置管理现在与基于 PaaSTA 的配置管理解决方案一致,在该解决方案中,只要 YAML 文件更改提交到服务配置存储库, Jenkins 就会传播这些变化。由于这次架构大修,我们才能够利用现有的 PaaSTA CLI 工具来查看集群的状态、读取日志并重新启动集群。另一个好处是,能够通过提供必要的配置(见下文)来部署新的 Kafka 集群,这种方法使我们配置新 Kafka 集群的时间减半。

    image.gif编辑

    example-test-prod:
      deploy_group: prod.everything
      pool: kafka
      brokers: 15
      cpus: 5.7  # CPU unit reservation breakdown: (5.7 (kafka) + 0.1 (hacheck) + 0.1 (sensu)) + 0.1 (kiam) = 6.0 (as an example, consider that our pool is comprised of m5.2xlarge instances)
      mem: 26Gi
      data: 910Gi
      storage_class: gp2
      cluster_type: example
      cluster_name: test-prod
      use_cruise_control: true
      cruise_control_port: 12345
      service_name: kafka-2-4-1
      zookeeper:
        cluster_name: test-prod
        chroot: kafka-example-test-prod
        cluster_type: kafka_example_test
      config:
        unclean.leader.election.enable: "false"
        reserved.broker.max.id: "2113929216"
        request.timeout.ms: "300001"
        replica.fetch.max.bytes: "10485760"
        offsets.topic.segment.bytes: "104857600"
        offsets.retention.minutes: "10080"
        offsets.load.buffer.size: "15728640"
        num.replica.fetchers: "3"
        num.network.threads: "5"
        num.io.threads: "5"
        min.insync.replicas: "2"
        message.max.bytes: "1000000"
        log.segment.bytes: "268435456"
        log.roll.jitter.hours: "1"
        log.roll.hours: "22"
        log.retention.hours: "24"
        log.message.timestamp.type: "LogAppendTime"
        log.message.format.version: "2.4-IV1"
        log.cleaner.enable: "true"
        log.cleaner.threads: "3"
        log.cleaner.dedupe.buffer.size: "536870912"
        inter.broker.protocol.version: "2.4-IV1"
        group.max.session.timeout.ms: "300000"
        delete.topic.enable: "true"
        default.replication.factor: "3"
        connections.max.idle.ms: "3600000"
        confluent.support.metrics.enable: "false"
        auto.create.topics.enable: "false"
        transactional.id.expiration.ms: "86400000"

    image.gif

    运行 Kafka 2.4.1 版本的有 15 个代理的集群的示例配置文件

    新架构详解

    新架构的一个主要组件是 Kafka Kubernetes operator,它负责管理 Kafka 集群的状态。虽然我们仍然依赖外部 ZooKeeper 集群来维护集群元数据,但消息数据仍然保存在 Kafka 代理的磁盘中。由于 Kafka 用户依赖持久存储来检索数据,在 Kubernetes 中,Kafka 被认为是一个有状态的应用程序。Kubernetes 公开了用于管理有状态应用程序的工作负载 API 对象 。

    (例如 StatefulSets ),但 Kubernetes 默认没有 Kafka-specific 结构。因此,需要标准 Kubernetes API 之外的其他功能来维护我们的实例。用 Kubernetes 的说法,operator 是一个自定义控制器,它允许我们公开这种特定的应用功能。

    image.gif编辑Operator 负责确定 Kubernetes 需要对集群执行操作的时间。它有一个协调循环,观察自定义集群资源的状态,并通过与 Kubernetes API 交互以及调用另一个关键架构组件 Cruise Control 公开的 API 来协调差异。

    Cruise Control 是 LinkedIn 开发的开源 Kafka 集群管理系统。目标是减少与维护大型 Kafka 集群的开销。每个 Kafka 集群都有自己专用的 Cruise Control 实例,每个集群的 Operator 与其 Cruise Control 实例交互以执行生命周期管理操作,如检查集群的健康状况、重新平衡主题分区和添加/删除代理。

    Cruise Control 使用的范式在许多方面与 operator 使用的范式相似。Cruise Control 监控 Kafka 集群的状态,生成一个内部模型,扫描异常目标,并尝试解决异常问题。它公开了用于各种管理任务和上述生命周期管理操作的 API 。这些 API 可替代我们之前的临时生命周期管理实现,我们使用 EC2 支持的代理来执行条件性再平衡操作或与 SNS 和 SQS 等 AWS 资源进行互动,将这些整合到一项服务中帮助简化生命周期管理栈。

    image.gif编辑

    将这些组件放在一起就形成了一个集群架构,我们通过内部配置管理系统定义了一个 CRD,并将其与自定义 Kafka Docker 镜像结合起来。Kafka Kubernetes operator 在与 Kubernetes API 的交互中使用配置、CRD 和 Docker 镜像 ,在 Kubernetes 主服务器上生成 KafkaCluster 自定义资源,因此可以在 Kubernetes 节点上调度 Kafka pod,operator 通过 Kubernetes API 和 Cruise Control 服务公开的 API 来监督和维护集群的健康状况。我们可以通过 Cruise Control UI 或 PaaSTA CLI 工具观察集群并与之交互。

    最后,通过一个示例场景来说明整个操作流程。考虑通过删除代理来缩小集群规模的情况。一个开发者更新集群的配置并减少代理的数量,从而更新 Kafka 集群的 CRD。作为协调循环的一部分,operator 认识到期望的集群状态与 StatefulSet 中表示的实际状态不同,所以它要求 Cruise Control 删除代理,Cruise Control API 返回有关删除任务的信息,operator 使用这个任务的元数据注释退役 pod。当 Cruise Control 执行将分区从代理移开的过程,operator 会通过向 Cruise Control 发出请求来例行检查停用的状态。一旦任务被标记为已完成,operator 将移除 pod ,集群规范的内部状态就被调和了。

    image.gif编辑

    架构设计好后,我们会做什么?

    在设计了这个架构之后,我们构建了一个将 Kafka 集群从 EC2 无缝迁移到 PaaSTA 的流程。截止目前,我们已经将许多集群迁移到 PaaSTA,并使用新架构部署了新集群。我们还在继续调整硬件选择,以适应集群的不同属性。

    引用链接

    [1]

    原文链接: https://engineeringblog.yelp.com/2021/12/kafka-on-paasta-part-one.html

    本期分享到此结束,关注博主不迷路,叶秋学长带你上高速~~

    相关文章
    |
    4天前
    |
    运维 Kubernetes Cloud Native
    构建高效云原生运维体系:Kubernetes最佳实践
    【5月更文挑战第9天】 在动态和快速演变的云计算环境中,高效的运维是确保应用稳定性与性能的关键。本文将深入探讨在Kubernetes环境下,如何通过一系列最佳实践来构建一个高效且响应灵敏的云原生运维体系。文章不仅涵盖了容器化技术的选择与优化、自动化部署、持续集成/持续交付(CI/CD)流程的整合,还讨论了监控、日志管理以及灾难恢复策略的重要性。这些实践旨在帮助运维团队有效应对微服务架构下的复杂性,确保系统可靠性及业务的连续性。
    |
    6天前
    |
    Kubernetes Cloud Native 持续交付
    【Docker专栏】Kubernetes与Docker:协同构建云原生应用
    【5月更文挑战第7天】本文探讨了Docker和Kubernetes如何协同构建和管理云原生应用。Docker提供容器化技术,Kubernetes则负责容器的部署和管理。两者结合实现快速部署、自动扩展和高可用性。通过编写Dockerfile创建镜像,然后在Kubernetes中定义部署和服务进行应用暴露。实战部分展示了如何部署简单Web应用,包括编写Dockerfile、构建镜像、创建Kubernetes部署配置以及暴露服务。Kubernetes还具备自动扩展、滚动更新和健康检查等高级特性,为云原生应用管理提供全面支持。
    【Docker专栏】Kubernetes与Docker:协同构建云原生应用
    |
    7天前
    |
    Kubernetes Cloud Native 持续交付
    构建高效云原生应用:Kubernetes与微服务架构的融合
    【5月更文挑战第6天】 在数字化转型的浪潮中,企业正迅速采纳云原生技术以实现敏捷性、可扩展性和弹性。本文深入探讨了如何利用Kubernetes这一领先的容器编排平台,结合微服务架构,构建和维护高效、可伸缩的云原生应用。通过分析现代软件设计原则和最佳实践,我们提出了一个综合指南,旨在帮助开发者和系统架构师优化云资源配置,提高部署流程的自动化水平,并确保系统的高可用性。
    29 1
    |
    8天前
    |
    Kubernetes Cloud Native Go
    Golang深入浅出之-Go语言中的云原生开发:Kubernetes与Docker
    【5月更文挑战第5天】本文探讨了Go语言在云原生开发中的应用,特别是在Kubernetes和Docker中的使用。Docker利用Go语言的性能和跨平台能力编写Dockerfile和构建镜像。Kubernetes,主要由Go语言编写,提供了方便的客户端库与集群交互。文章列举了Dockerfile编写、Kubernetes资源定义和服务发现的常见问题及解决方案,并给出了Go语言构建Docker镜像和与Kubernetes交互的代码示例。通过掌握这些技巧,开发者能更高效地进行云原生应用开发。
    50 1
    |
    16天前
    |
    Kubernetes Cloud Native 持续交付
    构建高效云原生应用:以Kubernetes为核心
    【4月更文挑战第27天】 在当今数字化转型的浪潮中,企业急需构建灵活、可扩展的应用来应对不断变化的市场需求。云原生技术以其独特的优势应运而生,成为推动现代应用开发和部署的重要力量。本文深入探讨了云原生的核心组件之一——Kubernetes,解析其如何通过容器编排优化资源利用,提高应用的弹性和可维护性。同时,文章将展示如何在云平台上实现高效的服务发现、自动扩缩容以及持续集成和持续部署(CI/CD),进一步阐述云原生架构下的最佳实践和面临的挑战。
    |
    22天前
    |
    消息中间件 Cloud Native 开发者
    电子好书发您分享《阿里云云原生开源开发者沙龙北京站 PPT 合集 》
    **阿里云开源沙龙PPT合集:北京站聚焦云原生技术** 探索云原生领域的深度与广度,[阿里云](https://developer.aliyun.com/ebook/8334/116563?spm=a2c6h.26392459.ebook-detail.5.da096cf6t38G15)分享了北京开发者沙龙的精彩内容,涵盖微服务、消息队列等主题,助力开发者洞悉行业趋势。![image](https://ucc.alicdn.com/pic/developer-ecology/cok6a6su42rzm_67b12f6cad6e4b2786859b3a668b3351.png)
    19 3
    |
    2月前
    |
    人工智能 监控 Cloud Native
    iLogtail 2.0 来了;通义灵码下载量破百万丨阿里云云原生 2 月产品月报
    iLogtail 2.0 来了;通义灵码下载量破百万丨阿里云云原生 2 月产品月报
    |
    3月前
    阿里云云原生恭祝大家新年快乐!
    阿里云云原生恭祝大家新年快乐!
    |
    3月前
    |
    人工智能 监控 Cloud Native
    阿里云参编业内首个代码大模型标准丨云原生 2024 年 1 月产品技术动态
    阿里云参编业内首个代码大模型标准丨云原生 2024 年 1 月产品技术动态
    |
    20天前
    |
    Cloud Native Serverless 开发者
    阿里云助力开发者创新:探索云原生技术的新境界
    阿里云开发者社区推动云原生技术发展,提供丰富产品(如容器服务、Serverless、微服务架构、服务网格)与学习平台,助力企业数字化转型。开发者在此探索实践,共享资源,参与技术活动,共同创新,共创云原生技术新篇章。一起加入,开启精彩旅程!