Kafka【环境搭建 02】kafka_2.11-2.4.1 基于 zookeeper 搭建高可用伪集群(一台服务器实现三个节点的 Kafka 集群)

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: 【2月更文挑战第19天】Kafka【环境搭建 02】kafka_2.11-2.4.1 基于 zookeeper 搭建高可用伪集群(一台服务器实现三个节点的 Kafka 集群)

我使用的安装文件是 kafka_2.11-2.4.1.tgz ,以下内容均以此版本进行说明。zookeeper集群也是伪集群,zk的伪集群搭建方法可参考《Zookeeper-3.6.0 伪集群版 搭建指南》

1 安装kafka

之前有单机版的铺垫《kafka_2.11-2.4.1 单机版安装指南》,这里省略部分说直接开装,也可参考官网《kafka_2.13-2.8.0 quickstart》官网网速可不 quick :snail:

# 解压安装包并移动到 /usr/local/ 文件夹下
[root@aliyun kafka]# tar -zxvf kafka_2.11-2.4.1.tgz
[root@aliyun kafka]# mv ./kafka_2.11-2.4.1/ /usr/local/kafka

配置环境变量【目的随时随地执行命令】配置方法比较多,这里统一将环境变量放在 /etc/profile.d/my_env.sh 内。

# 配置环境变量:
vim /etc/profile.d/my_env.sh
# 添加 KAFKA_HOME和bin
export KAFKA_HOME=/usr/local/kafka
export PATH=$PATH:$KAFKA_HOME/bin
# 使得配置的环境变量立即生效:
    # 首先是要赋权限【只操作一次就行】
    chmod +x /etc/profile.d/my_env.sh
source /etc/profile.d/my_env.sh

单机版 kafka 安装结束,是不是很惊讶!就是这么 quick :zap:

2 分布式配置

进入${KAFKA_HOME}/config/ 目录下 ,拷贝三份 server.properties 配置文件:

cp ./server.properties ./server-1.properties
cp ./server.properties ./server-2.properties
cp ./server.properties ./server-3.properties
# 【先查看一下zk伪集群的地址】无关信息不再贴出
Client port found: 2181. Client address: localhost.
Client port found: 2182. Client address: localhost.
Client port found: 2183. Client address: localhost.
# 分别修改三个 server.properties 配置文件【以第一个为例】
vim /usr/local/kafka/config/server-1.properties
# - - - - - - 内容如下 - - - - - - 
# 1.集群中每个节点的唯一标识
broker.id=0【三个配置文件不同 server-2 为1 server-3 为2】
# 2.监听地址
listeners=PLAINTEXT://aliyun:9091【三个配置文件不同 server-2 为9092 server-3 为9093】
# 数据的存储位置
log.dirs=/usr/local/kafka/kafka-logs/01【三个配置文件不同 server-2 为02 server-3 为03】
# zookeeper集群地址【这里搭建的是伪集群】
zookeeper.connect=aliyun:2181,aliyun:2182,aliyun:2183【三个配置文件相同】

kafka的 log.dirs 指的是数据日志的存储位置,就是分区数据的存储位置,而不是程序运行日志信息的位置。配置程序运行日志信息的位置是通过同一目录下的 log4j.properties 进行的。至此,集群配置已完成。

3 启动集群并测试

由于配置过环境变量 KAFKA_HOME 所有在任何文件夹下都可以进行启动:

# 使用三个不同的配置文件分别启动三个实例【使用三个不同的终端窗口 且启动后不要关闭 否则服务就会停止】
kafka-server-start.sh /usr/local/kafka/config/server-1.properties
kafka-server-start.sh /usr/local/kafka/config/server-2.properties
kafka-server-start.sh /usr/local/kafka/config/server-3.properties

进行测试:

# 创建一个主题
kafka-topics.sh --create --bootstrap-server tcloud:9092 \
--replication-factor 3 \
--partitions 1 \
--topic yuan

# 查看主题信息
[root@tcloud ~]# kafka-topics.sh --describe --bootstrap-server tcloud:9092 --topic yuan
[2021-08-07 18:07:38,587] WARN [AdminClient clientId=adminclient-1] Connection to node 2 (localhost/127.0.0.1:9093) could not be established. Broker may not be available. (org.apache.kafka.clients.NetworkClient)
Topic: yuan     PartitionCount: 1       ReplicationFactor: 3    Configs: segment.bytes=1073741824
        Topic: yuan     Partition: 0    Leader: 0       Replicas: 0,1,2 Isr: 0,1

可以看到有1分分区3个副本,且三个副本都是可用副本,当前只有 0,1在 ISR(in-sync Replica 同步副本)列表中,其中 0 为首领副本,此时代表集群已经搭建成功。

4 总结

最终总结一下曲折的启动历程,由于我是用的是云服务器1核2G,内存是真不够用,启动第三个的时候:

Java HotSpot(TM) 64-Bit Server VM warning: INFO: os::commit_memory(0x00000000c0000000, 1073741824, 0) failed; 
error='Cannot allocate memory' (errno=12)

我只好在我的另一台服务器上启动了第三个节点,最终才启动起来 :sob:

目录
相关文章
|
7天前
|
消息中间件 Kafka
Kafka【部署 03】Zookeeper与Kafka自动部署脚本
【4月更文挑战第11天】Kafka【部署 03】Zookeeper与Kafka自动部署脚本
29 8
|
7天前
|
Shell
ZooKeeper【基础 02】zookeeper-3.6.0 常用Shell命令(节点增删改查+监听器+四字指令)
【4月更文挑战第10天】ZooKeeper【基础 02】zookeeper-3.6.0 常用Shell命令(节点增删改查+监听器+四字指令)
25 0
|
7天前
|
存储 Java 网络安全
ZooKeeper【搭建 03】apache-zookeeper-3.6.0 伪集群版(一台服务器实现三个节点的ZooKeeper集群)
【4月更文挑战第10天】ZooKeeper【搭建 03】apache-zookeeper-3.6.0 伪集群版(一台服务器实现三个节点的ZooKeeper集群)
36 1
|
7天前
|
Java 网络安全 Apache
搭建Zookeeper集群:三台服务器,一场分布式之舞
搭建Zookeeper集群:三台服务器,一场分布式之舞
53 0
|
7天前
|
消息中间件 存储 数据管理
【Kafka】zookeeper对于kafka的作用是什么?
【4月更文挑战第6天】【Kafka】zookeeper对于kafka的作用是什么?
|
7天前
|
消息中间件 存储 缓存
Kafka【基础知识 02】集群+副本机制+数据请求+物理存储+数据存储设计(图片来源于网络)
【2月更文挑战第20天】Kafka【基础知识 02】集群+副本机制+数据请求+物理存储+数据存储设计(图片来源于网络)
53 1
|
7天前
|
消息中间件 存储 算法
深入了解Kafka的数据持久化机制
深入了解Kafka的数据持久化机制
46 0
|
5天前
|
消息中间件 关系型数据库 Kafka
实时计算 Flink版产品使用合集之想要加快消费 Kafka 数据的速度,该怎么配置参数
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
17 2
|
7天前
|
消息中间件 Kafka Apache
Flink 提供了与 Kafka 集成的官方 Connector,使得 Flink 能够消费 Kafka 数据
【2月更文挑战第6天】Flink 提供了与 Kafka 集成的官方 Connector,使得 Flink 能够消费 Kafka 数据
76 2
|
1天前
|
消息中间件 数据采集 分布式计算
【数据采集与预处理】数据接入工具Kafka
【数据采集与预处理】数据接入工具Kafka
9 1
【数据采集与预处理】数据接入工具Kafka

热门文章

最新文章