部署安装kafka集群

本文涉及的产品
注册配置 MSE Nacos/ZooKeeper,118元/月
云原生网关 MSE Higress,422元/月
任务调度 XXL-JOB 版免费试用,400 元额度,开发版规格
简介: 部署安装kafka集群

准备

zookeeper节点:

  • 172.50.13.103
  • 172.50.13.104
  • 172.50.13.105

kafka版本:

  • 2.13-2.7.0

安装步骤

  1. 部署安装zookeeper集群。参考:部署安装zookeeper集群
  2. 下载并解压缩kafka安装包。规范位置为/home/web/kafka
  1. wget http://mirrors.ustc.edu.cn/apache/kafka/2.7.0/kafka_2.13-2.7.0.tgz -P /home/web
  2. tar xf kafka_2.13-2.7.0.tgz
  3. 使用mv修改目录名为/home/web/kafka
  1. 编辑配置文件(以13.103上的配置文件为例,13.104和13.105上只需要修改broker.idlisteners)
# 每一个Broker在集群中的唯一标识,必须为正数
broker.id=0
# kafka监听地址与端口
listeners=PLAINTEXT://172.50.13.103:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
# kafka保存数据的位置
log.dirs=/home/log/kafka
# 设置新创建的分区有多少个分区,可以根据消费者实际情况配置,配置过小会影响消费性能
num.partitions=6
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
# 数据保存72小时
log.retention.hours=72
# 分区中每个段数据文件的大小为1GB
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
# zookeeper所在地址
zookeeper.connect=172.50.13.104:2181,172.50.13.105:2181,172.50.13.105:2181,
zookeeper.connection.timeout.ms=18000
group.initial.rebalance.delay.ms=0
# 自动创建主题
auto.create.topics.enable=true
# 提供删除主题的功能
delete.topic.enable=true
  1. 启动:
/home/web/kafka/bin/kafka-server-start.sh -daemon /home/web/kafka/config/server.properties

基本操作指令

  • 显示主题列表:
/home/web/kafka/bin/kafka-topics.sh --zookeeper 172.50.13.103:2181,172.50.13.104:2181,172.50.13.105:2181 --list
  • 创建主题:
/home/web/kafka/bin/kafka-topics.sh --create  --zookeeper 172.50.13.103:2181,172.50.13.104:2181,172.50.13.105:2181 --replication-factor 1 --partitions 3 --topic testtopic
  • 查看某个主题的状态
/home/web/kafka/bin/kafka-topics.sh --describe  --zookeeper 172.50.13.103:2181,172.50.13.104:2181,172.50.13.105:2181  --topic testtopic
  • 13.103启动生产者生产消息
/home/web/kafka/bin/kafka-console-producer.sh --broker-list 172.50.13.103:9092,172.50.13.104:9092,172.50.13.105:9092 --topic testtopic
  • 13.104和13.104启动消费者
/home/web/kafka/bin/kafka-console-consumer.sh --bootstrap-server 172.50.13.103:9092,172.50.13.104:9092,172.50.13.105:9092 --topic testtopic

在生产者的控制台随便输入内容并回车,如果消费者控制台也能看到,说明kafka集群搭建完成。

  • 删除主题
/home/web/kafka/bin/kafka-topics.sh --zookeeper 172.50.13.103:2181,172.50.13.104:2181,172.50.13.105:2181 --delete --topic testtopic

其它文档

相关文章
|
2月前
|
消息中间件 存储 监控
构建高可用性Apache Kafka集群:从理论到实践
【10月更文挑战第24天】随着大数据时代的到来,数据传输与处理的需求日益增长。Apache Kafka作为一个高性能的消息队列服务,因其出色的吞吐量、可扩展性和容错能力而受到广泛欢迎。然而,在构建大规模生产环境下的Kafka集群时,保证其高可用性是至关重要的。本文将从个人实践经验出发,详细介绍如何构建一个高可用性的Kafka集群,包括集群规划、节点配置以及故障恢复机制等方面。
129 4
|
3月前
|
消息中间件 监控 数据可视化
大数据-79 Kafka 集群模式 集群监控方案 JavaAPI获取集群指标 可视化监控集群方案: jconsole、Kafka Eagle
大数据-79 Kafka 集群模式 集群监控方案 JavaAPI获取集群指标 可视化监控集群方案: jconsole、Kafka Eagle
176 2
|
1月前
|
消息中间件 Java Kafka
【手把手教你Linux环境下快速搭建Kafka集群】内含脚本分发教程,实现一键部署多个Kafka节点
本文介绍了Kafka集群的搭建过程,涵盖从虚拟机安装到集群测试的详细步骤。首先规划了集群架构,包括三台Kafka Broker节点,并说明了分布式环境下的服务进程配置。接着,通过VMware导入模板机并克隆出三台虚拟机(kafka-broker1、kafka-broker2、kafka-broker3),分别设置IP地址和主机名。随后,依次安装JDK、ZooKeeper和Kafka,并配置相应的环境变量与启动脚本,确保各组件能正常运行。最后,通过编写启停脚本简化集群的操作流程,并对集群进行测试,验证其功能完整性。整个过程强调了自动化脚本的应用,提高了部署效率。
【手把手教你Linux环境下快速搭建Kafka集群】内含脚本分发教程,实现一键部署多个Kafka节点
|
1月前
|
消息中间件 存储 Kafka
2024最全Kafka集群方案汇总
Apache Kafka 是一个高吞吐量、可扩展、可靠的分布式消息系统,广泛应用于数据驱动的应用场景。Kafka 支持集群架构,具备高可用性和容错性。其核心组件包括 Broker(服务器实例)、Topic(消息分类)、Partition(有序消息序列)、Producer(消息发布者)和 Consumer(消息消费者)。每个分区有 Leader 和 Follower,确保数据冗余和高可用。Kafka 2.8+ 引入了不依赖 Zookeeper 的 KRaft 协议,进一步简化了集群管理。常见的集群部署方案包括单节点和多节点集群,后者适用于生产环境以确保高可用性。
77 0
|
2月前
|
消息中间件 存储 Prometheus
Kafka集群如何配置高可用性
Kafka集群如何配置高可用性
|
3月前
|
消息中间件 分布式计算 监控
大数据-78 Kafka 集群模式 集群的应用场景与Kafka集群的搭建 三台云服务器
大数据-78 Kafka 集群模式 集群的应用场景与Kafka集群的搭建 三台云服务器
131 6
|
2月前
|
消息中间件 Ubuntu Java
Ubuntu系统上安装Apache Kafka
Ubuntu系统上安装Apache Kafka
|
4月前
|
消息中间件 Java Linux
linux 之centos7安装kafka;;;;;待补充,未完成
linux 之centos7安装kafka;;;;;待补充,未完成
|
5月前
|
消息中间件 监控 Java
联通实时计算平台问题之监控Kafka集群的断传和积压情况要如何操作
联通实时计算平台问题之监控Kafka集群的断传和积压情况要如何操作
|
5月前
|
消息中间件 监控 Java
【Kafka节点存活大揭秘】如何让Kafka集群时刻保持“心跳”?探索Broker、Producer和Consumer的生死关头!
【8月更文挑战第24天】在分布式系统如Apache Kafka中,确保节点的健康运行至关重要。Kafka通过Broker、Producer及Consumer间的交互实现这一目标。文章介绍Kafka如何监测节点活性,包括心跳机制、会话超时与故障转移策略。示例Java代码展示了Producer如何通过定期发送心跳维持与Broker的连接。合理配置这些机制能有效保障Kafka集群的稳定与高效运行。
142 2

热门文章

最新文章

相关实验场景

更多