部署安装kafka集群

本文涉及的产品
注册配置 MSE Nacos/ZooKeeper,118元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
简介: 部署安装kafka集群

准备

zookeeper节点:

  • 172.50.13.103
  • 172.50.13.104
  • 172.50.13.105

kafka版本:

  • 2.13-2.7.0

安装步骤

  1. 部署安装zookeeper集群。参考:部署安装zookeeper集群
  2. 下载并解压缩kafka安装包。规范位置为/home/web/kafka
  1. wget http://mirrors.ustc.edu.cn/apache/kafka/2.7.0/kafka_2.13-2.7.0.tgz -P /home/web
  2. tar xf kafka_2.13-2.7.0.tgz
  3. 使用mv修改目录名为/home/web/kafka
  1. 编辑配置文件(以13.103上的配置文件为例,13.104和13.105上只需要修改broker.idlisteners)
# 每一个Broker在集群中的唯一标识,必须为正数
broker.id=0
# kafka监听地址与端口
listeners=PLAINTEXT://172.50.13.103:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
# kafka保存数据的位置
log.dirs=/home/log/kafka
# 设置新创建的分区有多少个分区,可以根据消费者实际情况配置,配置过小会影响消费性能
num.partitions=6
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
# 数据保存72小时
log.retention.hours=72
# 分区中每个段数据文件的大小为1GB
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
# zookeeper所在地址
zookeeper.connect=172.50.13.104:2181,172.50.13.105:2181,172.50.13.105:2181,
zookeeper.connection.timeout.ms=18000
group.initial.rebalance.delay.ms=0
# 自动创建主题
auto.create.topics.enable=true
# 提供删除主题的功能
delete.topic.enable=true
  1. 启动:
/home/web/kafka/bin/kafka-server-start.sh -daemon /home/web/kafka/config/server.properties

基本操作指令

  • 显示主题列表:
/home/web/kafka/bin/kafka-topics.sh --zookeeper 172.50.13.103:2181,172.50.13.104:2181,172.50.13.105:2181 --list
  • 创建主题:
/home/web/kafka/bin/kafka-topics.sh --create  --zookeeper 172.50.13.103:2181,172.50.13.104:2181,172.50.13.105:2181 --replication-factor 1 --partitions 3 --topic testtopic
  • 查看某个主题的状态
/home/web/kafka/bin/kafka-topics.sh --describe  --zookeeper 172.50.13.103:2181,172.50.13.104:2181,172.50.13.105:2181  --topic testtopic
  • 13.103启动生产者生产消息
/home/web/kafka/bin/kafka-console-producer.sh --broker-list 172.50.13.103:9092,172.50.13.104:9092,172.50.13.105:9092 --topic testtopic
  • 13.104和13.104启动消费者
/home/web/kafka/bin/kafka-console-consumer.sh --bootstrap-server 172.50.13.103:9092,172.50.13.104:9092,172.50.13.105:9092 --topic testtopic

在生产者的控制台随便输入内容并回车,如果消费者控制台也能看到,说明kafka集群搭建完成。

  • 删除主题
/home/web/kafka/bin/kafka-topics.sh --zookeeper 172.50.13.103:2181,172.50.13.104:2181,172.50.13.105:2181 --delete --topic testtopic

其它文档

相关文章
|
1月前
|
消息中间件 存储 监控
构建高可用性Apache Kafka集群:从理论到实践
【10月更文挑战第24天】随着大数据时代的到来,数据传输与处理的需求日益增长。Apache Kafka作为一个高性能的消息队列服务,因其出色的吞吐量、可扩展性和容错能力而受到广泛欢迎。然而,在构建大规模生产环境下的Kafka集群时,保证其高可用性是至关重要的。本文将从个人实践经验出发,详细介绍如何构建一个高可用性的Kafka集群,包括集群规划、节点配置以及故障恢复机制等方面。
82 4
|
2月前
|
消息中间件 监控 数据可视化
大数据-79 Kafka 集群模式 集群监控方案 JavaAPI获取集群指标 可视化监控集群方案: jconsole、Kafka Eagle
大数据-79 Kafka 集群模式 集群监控方案 JavaAPI获取集群指标 可视化监控集群方案: jconsole、Kafka Eagle
74 2
|
4月前
|
消息中间件 Ubuntu Java
在Ubuntu 18.04上安装Apache Kafka的方法
在Ubuntu 18.04上安装Apache Kafka的方法
206 0
|
1月前
|
消息中间件 存储 Prometheus
Kafka集群如何配置高可用性
Kafka集群如何配置高可用性
|
2月前
|
消息中间件 分布式计算 监控
大数据-78 Kafka 集群模式 集群的应用场景与Kafka集群的搭建 三台云服务器
大数据-78 Kafka 集群模式 集群的应用场景与Kafka集群的搭建 三台云服务器
85 6
|
1月前
|
消息中间件 Ubuntu Java
Ubuntu系统上安装Apache Kafka
Ubuntu系统上安装Apache Kafka
|
3月前
|
消息中间件 Java Linux
linux 之centos7安装kafka;;;;;待补充,未完成
linux 之centos7安装kafka;;;;;待补充,未完成
|
4月前
|
消息中间件 Kafka 测试技术
【Kafka揭秘】Leader选举大揭秘!如何打造一个不丢失消息的强大Kafka集群?
【8月更文挑战第24天】Apache Kafka是一款高性能分布式消息系统,利用分区机制支持数据并行处理。每个分区含一个Leader处理所有读写请求,并可有多个副本确保数据安全与容错。关键的Leader选举机制保障了系统的高可用性和数据一致性。选举发生于分区创建、Leader故障或被手动移除时。Kafka提供多种选举策略:内嵌机制自动选择最新数据副本为新Leader;Unclean选举快速恢复服务但可能丢失数据;Delayed Unclean选举则避免短暂故障下的Unclean选举;Preferred选举允许基于性能或地理位置偏好指定特定副本为首选Leader。
98 5
|
4月前
|
消息中间件 监控 Java
联通实时计算平台问题之监控Kafka集群的断传和积压情况要如何操作
联通实时计算平台问题之监控Kafka集群的断传和积压情况要如何操作
|
4月前
|
消息中间件 监控 Java
【Kafka节点存活大揭秘】如何让Kafka集群时刻保持“心跳”?探索Broker、Producer和Consumer的生死关头!
【8月更文挑战第24天】在分布式系统如Apache Kafka中,确保节点的健康运行至关重要。Kafka通过Broker、Producer及Consumer间的交互实现这一目标。文章介绍Kafka如何监测节点活性,包括心跳机制、会话超时与故障转移策略。示例Java代码展示了Producer如何通过定期发送心跳维持与Broker的连接。合理配置这些机制能有效保障Kafka集群的稳定与高效运行。
94 2