K8S环境快速部署Kafka(K8S外部可访问)

本文涉及的产品
MSE Nacos/ZooKeeper 企业版试用,1600元额度,限量50份
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
简介: 本文通过实战展示了如何在K8S环境部署kafka集群,并且K8S环境外部也能使用此服务

欢迎访问我的GitHub

这里分类和汇总了欣宸的全部原创(含配套源码): https://github.com/zq2599/blog_demos

如何快速部署

  1. 借助Helm,只需少量操作即可部署kafka;
  2. kafka和zookeeper对存储都有需求,若提前准备了StorageClass,存储一事则变得十分简单

参考文章

  • 本次实战涉及到的K8S、Helm、NFS、StorageClass等前置条件,它们的安装和使用请参考:
  1. 《kubespray2.11安装kubernetes1.15》
  2. 《部署和体验Helm(2.16.1版本)》
  3. 《Ubuntu16环境安装和使用NFS》
  4. 《K8S使用群晖DS218+的NFS》
  5. 《K8S的StorageClass实战(NFS)》

环境信息

  • 本次实战的操作系统和软件的版本信息如下:
  1. Kubernetes:1.15
  2. Kubernetes宿主机:CentOS Linux release 7.7.1908
  3. NFS服务:IP地址192.168.50.135,文件夹/volume1/nfs-storageclass-test
  4. Helm:2.16.1
  5. Kafka:2.0.1
  6. Zookeeper:3.5.5
  • 接下来的实战之前,请您准备好:K8S、Helm、NFS、StorageClass;

操作

  • 下载kafka的chart:helm fetch incubator/kafka
  • 下载成功后当前目录有个压缩包:kafka-0.20.8.tgz,解压:tar -zxvf kafka-0.20.8.tgz
  1. 进入解压后的kafka目录,编辑values.yaml文件,下面是具体的修改点:
  • 首先要设置在K8S之外的也能使用kafka服务,修改external.enabled的值,改为true

在这里插入图片描述

  • 找到configurationOverrides,下图两个黄框中的内容原本是注释的,请删除注释符号,另外,如果您之前设置过跨网络访问kafka,就能理解下面写入K8S宿主机IP的原因了:

在这里插入图片描述

  • 接下来设置数据卷,找到persistence,按需要调整大小,再设置已准备好的storageclass的名称:

在这里插入图片描述

  • 再设置zookeeper的数据卷:

在这里插入图片描述

  • 设置完成,开始部署,先创建namespace,执行:kubectl create namespace kafka-test
  • 在kafka目录下执行:helm install --name-template kafka -f values.yaml . --namespace kafka-test
  • 如果前面的配置没有问题,控制台提示如下所示:

在这里插入图片描述

  • kafka启动依赖zookeeper,整个启动会耗时数分钟,期间可见zookeeper和kafka的pod逐渐启动:

在这里插入图片描述

  • 查看服务:kubectl get services -n kafka-test,如下图红框所示,通过宿主机IP:31090、宿主机IP:31091、宿主机IP:31092即可从外部访问kafka:

在这里插入图片描述

  • 查看kafka版本:kubectl exec kafka-0 -n kafka-test -- sh -c 'ls /usr/share/java/kafka/kafka_*.jar' ,如下图红框所示,scala版本2.11,kafka版本2.0.1

在这里插入图片描述

  • kafka启动成功后,咱们来验证服务是否正常;

对外暴露zookeeper

  • 为了远程操作kafka,有时需要连接到zookeeper,所以需要将zookeeper也暴露出来;
  • 创建文件zookeeper-nodeport-svc.yaml,内容如下:
apiVersion: v1
kind: Service
metadata:
  name: zookeeper-nodeport
  namespace: kafka-test
spec:
  type: NodePort
  ports:
       - port: 2181
         nodePort: 32181
  selector:
    app: zookeeper
    release: kafka
  • 执行命令:kubectl apply -f zookeeper-nodeport-svc.yaml
  • 查看服务,发现已经可以通过宿主机IP:32181访问zookeeper了,如下图:

在这里插入图片描述

验证kafka服务

  • 找一台电脑安装kafka包,就能通过里面自带的命令远程连接和操作K8S的kafka了:
  • 访问kafka官网:http://kafka.apache.org/downloads ,刚才确定了scala版本2.11,kafka版本2.0.1,因此下载下图红框中的版本:

在这里插入图片描述

  • 下载后解压,进入目录kafka_2.11-2.0.1/bin
  • 查看当前topic:
./kafka-topics.sh --list --zookeeper 192.168.50.135:32181
  • 如下图,空空如也:

在这里插入图片描述

  • 创建topic:
./kafka-topics.sh --create --zookeeper 192.168.50.135:32181 --replication-factor 1 --partitions 1 --topic test001

如下图,创建成功后再查看topic终于有内容了:
在这里插入图片描述

  • 查看名为test001的topic:
./kafka-topics.sh --describe --zookeeper 192.168.50.135:32181 --topic test001

在这里插入图片描述

  • 进入创建消息的交互模式:
./kafka-console-producer.sh --broker-list 192.168.50.135:31090 --topic test001

进入交互模式后,输入任何字符串再输入回车,就会将当前内容作为一条消息发送出去:
在这里插入图片描述

  • 再打开一个窗口,执行命令消费消息:
./kafka-console-consumer.sh --bootstrap-server 192.168.50.135:31090 --topic test001 --from-beginning

在这里插入图片描述

  • 再打开一个窗口,执行命令查看消费者group:
./kafka-consumer-groups.sh --bootstrap-server 192.168.50.135:31090 --list

如下图可见groupid等于console-consumer-21022
在这里插入图片描述

  • 执行命令查看groupid等于console-consumer-21022的消费情况:
./kafka-consumer-groups.sh --group console-consumer-21022 --describe --bootstrap-server 192.168.50.135:31090
  • 如下图所示:

在这里插入图片描述

  • 远程连接kafka体验基本功能完毕,查看、收发消息都正常,证明本次部署成功;

kafkacat连接

  • afkacat是个客户端工具,我这里是在MacBook Pro上用brew安装的;
  • 我这里K8S服务器IP是192.168.50.135,因此执行此命令查看kafka信息:kafkacat -b 192.168.50.135:31090 -L,如下图,可以看到broker信息,以及topic信息(一个是test001,还有一个是consumer的offset),把端口换成3109131092会连接到另外两个broker,也能得到相同信息:

在这里插入图片描述

清理资源

  • 本次实战创建了很多资源:rbac、role、serviceaccount、pod、deployment、service,下面的脚本可以将这些资源清理掉(只剩NFS的文件没有被清理掉):
helm del --purge kafka
kubectl delete service zookeeper-nodeport -n kafka-test
kubectl delete storageclass managed-nfs-storage
kubectl delete deployment nfs-client-provisioner -n kafka-test
kubectl delete clusterrolebinding run-nfs-client-provisioner
kubectl delete serviceaccount nfs-client-provisioner -n kafka-test
kubectl delete role leader-locking-nfs-client-provisioner -n kafka-test
kubectl delete rolebinding leader-locking-nfs-client-provisioner -n kafka-test
kubectl delete clusterrole nfs-client-provisioner-runner
kubectl delete namespace kafka-test
  • 至此,K8S环境部署和验证kafka的实战就完成了,希望能给您提供一些参考;

欢迎关注阿里云开发者社区博客:程序员欣宸

学习路上,你不孤单,欣宸原创一路相伴...
相关文章
|
7月前
|
存储 Kubernetes 开发工具
使用ArgoCD管理Kubernetes部署指南
ArgoCD 是一款基于 Kubernetes 的声明式 GitOps 持续交付工具,通过自动同步 Git 存储库中的配置与 Kubernetes 集群状态,确保一致性与可靠性。它支持实时同步、声明式设置、自动修复和丰富的用户界面,极大简化了复杂应用的部署管理。结合 Helm Charts,ArgoCD 提供模块化、可重用的部署流程,显著减少人工开销和配置错误。对于云原生企业,ArgoCD 能优化部署策略,提升效率与安全性,是实现自动化与一致性的理想选择。
402 0
|
6月前
|
存储 Kubernetes 异构计算
Qwen3 大模型在阿里云容器服务上的极简部署教程
通义千问 Qwen3 是 Qwen 系列最新推出的首个混合推理模型,其在代码、数学、通用能力等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型相比,表现出极具竞争力的结果。
|
5月前
|
消息中间件 数据可视化 Kafka
docker arm架构部署kafka要点
本内容介绍了基于 Docker 的容器化解决方案,包含以下部分: 1. **Docker 容器管理**:通过 Portainer 可视化管理工具实现对主节点和代理节点的统一管理。 2. **Kafka 可视化工具**:部署 Kafka-UI 以图形化方式监控和管理 Kafka 集群,支持动态配置功能, 3. **Kafka 安装与配置**:基于 Bitnami Kafka 镜像,提供完整的 Kafka 集群配置示例,涵盖 KRaft 模式、性能调优参数及数据持久化设置,适用于高可用生产环境。 以上方案适合 ARM64 架构,为用户提供了一站式的容器化管理和消息队列解决方案。
431 10
|
7月前
|
存储 Kubernetes 监控
K8s集群实战:使用kubeadm和kuboard部署Kubernetes集群
总之,使用kubeadm和kuboard部署K8s集群就像回归童年一样,简单又有趣。不要忘记,技术是为人服务的,用K8s集群操控云端资源,我们不过是想在复杂的世界找寻简单。尽管部署过程可能遇到困难,但朝着简化复杂的目标,我们就能找到意义和乐趣。希望你也能利用这些工具,找到你的乐趣,满足你的需求。
694 33
|
7月前
|
Kubernetes 开发者 Docker
集群部署:使用Rancher部署Kubernetes集群。
以上就是使用 Rancher 部署 Kubernetes 集群的流程。使用 Rancher 和 Kubernetes,开发者可以受益于灵活性和可扩展性,允许他们在多种环境中运行多种应用,同时利用自动化工具使工作负载更加高效。
399 19
|
7月前
|
存储 测试技术 对象存储
使用容器服务ACK快速部署QwQ-32B模型并实现推理智能路由
阿里云最新发布的QwQ-32B模型,通过强化学习大幅度提升了模型推理能力。QwQ-32B模型拥有320亿参数,其性能可以与DeepSeek-R1 671B媲美。
|
8月前
|
存储 Kubernetes 测试技术
企业级LLM推理部署新范式:基于ACK的DeepSeek蒸馏模型生产环境落地指南
企业级LLM推理部署新范式:基于ACK的DeepSeek蒸馏模型生产环境落地指南
367 12
|
9月前
|
消息中间件 存储 缓存
kafka 的数据是放在磁盘上还是内存上,为什么速度会快?
Kafka的数据存储机制通过将数据同时写入磁盘和内存,确保高吞吐量与持久性。其日志文件按主题和分区组织,使用预写日志(WAL)保证数据持久性,并借助操作系统的页缓存加速读取。Kafka采用顺序I/O、零拷贝技术和批量处理优化性能,支持分区分段以实现并行处理。示例代码展示了如何使用KafkaProducer发送消息。
|
消息中间件 存储 运维
为什么说Kafka还不是完美的实时数据通道
【10月更文挑战第19天】Kafka 虽然作为数据通道被广泛应用,但在实时性、数据一致性、性能及管理方面存在局限。数据延迟受消息堆积和分区再平衡影响;数据一致性难以达到恰好一次;性能瓶颈在于网络和磁盘I/O;管理复杂性涉及集群配置与版本升级。
427 1
|
消息中间件 Java Kafka
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
287 1

热门文章

最新文章

推荐镜像

更多