Kafka【环境搭建 02】kafka_2.11-2.4.1 基于 zookeeper 搭建高可用伪集群(一台服务器实现三个节点的 Kafka 集群)

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
注册配置 MSE Nacos/ZooKeeper,118元/月
简介: 【2月更文挑战第19天】Kafka【环境搭建 02】kafka_2.11-2.4.1 基于 zookeeper 搭建高可用伪集群(一台服务器实现三个节点的 Kafka 集群)

我使用的安装文件是 kafka_2.11-2.4.1.tgz ,以下内容均以此版本进行说明。zookeeper集群也是伪集群,zk的伪集群搭建方法可参考《Zookeeper-3.6.0 伪集群版 搭建指南》

1 安装kafka

之前有单机版的铺垫《kafka_2.11-2.4.1 单机版安装指南》,这里省略部分说直接开装,也可参考官网《kafka_2.13-2.8.0 quickstart》官网网速可不 quick :snail:

# 解压安装包并移动到 /usr/local/ 文件夹下
[root@aliyun kafka]# tar -zxvf kafka_2.11-2.4.1.tgz
[root@aliyun kafka]# mv ./kafka_2.11-2.4.1/ /usr/local/kafka

配置环境变量【目的随时随地执行命令】配置方法比较多,这里统一将环境变量放在 /etc/profile.d/my_env.sh 内。

# 配置环境变量:
vim /etc/profile.d/my_env.sh
# 添加 KAFKA_HOME和bin
export KAFKA_HOME=/usr/local/kafka
export PATH=$PATH:$KAFKA_HOME/bin
# 使得配置的环境变量立即生效:
    # 首先是要赋权限【只操作一次就行】
    chmod +x /etc/profile.d/my_env.sh
source /etc/profile.d/my_env.sh

单机版 kafka 安装结束,是不是很惊讶!就是这么 quick :zap:

2 分布式配置

进入${KAFKA_HOME}/config/ 目录下 ,拷贝三份 server.properties 配置文件:

cp ./server.properties ./server-1.properties
cp ./server.properties ./server-2.properties
cp ./server.properties ./server-3.properties
# 【先查看一下zk伪集群的地址】无关信息不再贴出
Client port found: 2181. Client address: localhost.
Client port found: 2182. Client address: localhost.
Client port found: 2183. Client address: localhost.
# 分别修改三个 server.properties 配置文件【以第一个为例】
vim /usr/local/kafka/config/server-1.properties
# - - - - - - 内容如下 - - - - - - 
# 1.集群中每个节点的唯一标识
broker.id=0【三个配置文件不同 server-2 为1 server-3 为2】
# 2.监听地址
listeners=PLAINTEXT://aliyun:9091【三个配置文件不同 server-2 为9092 server-3 为9093】
# 数据的存储位置
log.dirs=/usr/local/kafka/kafka-logs/01【三个配置文件不同 server-2 为02 server-3 为03】
# zookeeper集群地址【这里搭建的是伪集群】
zookeeper.connect=aliyun:2181,aliyun:2182,aliyun:2183【三个配置文件相同】

kafka的 log.dirs 指的是数据日志的存储位置,就是分区数据的存储位置,而不是程序运行日志信息的位置。配置程序运行日志信息的位置是通过同一目录下的 log4j.properties 进行的。至此,集群配置已完成。

3 启动集群并测试

由于配置过环境变量 KAFKA_HOME 所有在任何文件夹下都可以进行启动:

# 使用三个不同的配置文件分别启动三个实例【使用三个不同的终端窗口 且启动后不要关闭 否则服务就会停止】
kafka-server-start.sh /usr/local/kafka/config/server-1.properties
kafka-server-start.sh /usr/local/kafka/config/server-2.properties
kafka-server-start.sh /usr/local/kafka/config/server-3.properties

进行测试:

# 创建一个主题
kafka-topics.sh --create --bootstrap-server tcloud:9092 \
--replication-factor 3 \
--partitions 1 \
--topic yuan

# 查看主题信息
[root@tcloud ~]# kafka-topics.sh --describe --bootstrap-server tcloud:9092 --topic yuan
[2021-08-07 18:07:38,587] WARN [AdminClient clientId=adminclient-1] Connection to node 2 (localhost/127.0.0.1:9093) could not be established. Broker may not be available. (org.apache.kafka.clients.NetworkClient)
Topic: yuan     PartitionCount: 1       ReplicationFactor: 3    Configs: segment.bytes=1073741824
        Topic: yuan     Partition: 0    Leader: 0       Replicas: 0,1,2 Isr: 0,1

可以看到有1分分区3个副本,且三个副本都是可用副本,当前只有 0,1在 ISR(in-sync Replica 同步副本)列表中,其中 0 为首领副本,此时代表集群已经搭建成功。

4 总结

最终总结一下曲折的启动历程,由于我是用的是云服务器1核2G,内存是真不够用,启动第三个的时候:

Java HotSpot(TM) 64-Bit Server VM warning: INFO: os::commit_memory(0x00000000c0000000, 1073741824, 0) failed; 
error='Cannot allocate memory' (errno=12)

我只好在我的另一台服务器上启动了第三个节点,最终才启动起来 :sob:

目录
相关文章
|
19天前
|
消息中间件 存储 监控
构建高可用性Apache Kafka集群:从理论到实践
【10月更文挑战第24天】随着大数据时代的到来,数据传输与处理的需求日益增长。Apache Kafka作为一个高性能的消息队列服务,因其出色的吞吐量、可扩展性和容错能力而受到广泛欢迎。然而,在构建大规模生产环境下的Kafka集群时,保证其高可用性是至关重要的。本文将从个人实践经验出发,详细介绍如何构建一个高可用性的Kafka集群,包括集群规划、节点配置以及故障恢复机制等方面。
51 4
|
1月前
|
消息中间件 监控 数据可视化
大数据-79 Kafka 集群模式 集群监控方案 JavaAPI获取集群指标 可视化监控集群方案: jconsole、Kafka Eagle
大数据-79 Kafka 集群模式 集群监控方案 JavaAPI获取集群指标 可视化监控集群方案: jconsole、Kafka Eagle
51 2
|
16天前
|
消息中间件 存储 Prometheus
Kafka集群如何配置高可用性
Kafka集群如何配置高可用性
|
1月前
|
消息中间件 分布式计算 监控
大数据-78 Kafka 集群模式 集群的应用场景与Kafka集群的搭建 三台云服务器
大数据-78 Kafka 集群模式 集群的应用场景与Kafka集群的搭建 三台云服务器
61 6
|
1月前
|
分布式计算 Java Hadoop
Hadoop-30 ZooKeeper集群 JavaAPI 客户端 POM Java操作ZK 监听节点 监听数据变化 创建节点 删除节点
Hadoop-30 ZooKeeper集群 JavaAPI 客户端 POM Java操作ZK 监听节点 监听数据变化 创建节点 删除节点
61 1
|
1月前
|
分布式计算 监控 Hadoop
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
39 1
|
1月前
|
消息中间件 存储 Kafka
面试题:Kafka如何保证高可用?有图有真相
面试题:Kafka如何保证高可用?有图有真相
|
1月前
|
消息中间件 存储 运维
为什么说Kafka还不是完美的实时数据通道
【10月更文挑战第19天】Kafka 虽然作为数据通道被广泛应用,但在实时性、数据一致性、性能及管理方面存在局限。数据延迟受消息堆积和分区再平衡影响;数据一致性难以达到恰好一次;性能瓶颈在于网络和磁盘I/O;管理复杂性涉及集群配置与版本升级。
|
1月前
|
消息中间件 Java Kafka
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
46 1
|
3月前
|
消息中间件 Java Kafka
Kafka不重复消费的终极秘籍!解锁幂等性、偏移量、去重神器,让你的数据流稳如老狗,告别数据混乱时代!
【8月更文挑战第24天】Apache Kafka作为一款领先的分布式流处理平台,凭借其卓越的高吞吐量与低延迟特性,在大数据处理领域中占据重要地位。然而,在利用Kafka进行数据处理时,如何有效避免重复消费成为众多开发者关注的焦点。本文深入探讨了Kafka中可能出现重复消费的原因,并提出了四种实用的解决方案:利用消息偏移量手动控制消费进度;启用幂等性生产者确保消息不被重复发送;在消费者端实施去重机制;以及借助Kafka的事务支持实现精确的一次性处理。通过这些方法,开发者可根据不同的应用场景灵活选择最适合的策略,从而保障数据处理的准确性和一致性。
268 9

热门文章

最新文章