Linux——Kafka集群搭建

本文涉及的产品
云原生网关 MSE Higress,422元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
注册配置 MSE Nacos/ZooKeeper,118元/月
简介: Linux——Kafka集群搭建

简介

这里不做过多的原理的讲解,直接讲部署搭建,具体原理性的东西,大家可以到kafka的官网去查看,原汁原味更带劲。

内容

请记住,你是能让世界洒满阳光的人!

安装包准备

JDK1.8 : JDK1.8

kafka_2.12-2.6.0 : kafka_2.12-2.6.0

zookeeper-3.5.8 : zookeeper-3.5.8

kafka_2.12-2.6.0配套的zookeeper就是3.5.8,所以我们直接使用原配进行搭建zookeeper集群

创建目录

mkdir -p /app/data/{zk-data,zk-logs,kafka-logs}

配置JAVA环境

tar -zxvf jdk-8u221-linux-x64.tar.gz -C /usr/local/
echo "export JAVA_HOME=/usr/local/jdk1.8.0_221/" >> /etc/profile
echo "export PATH=/usr/local/jdk1.8.0_221//bin:/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin" >> /etc/profile
echo "export CLASSPATH=.:/usr/local/jdk1.8.0_221//lib/dt.jar:/usr/local/jdk1.8.0_221//lib/tools.jar" >> /etc/profile
source /etc/profile
java -version

三个节点都需要配置java环境

搭建zookeeper集群

节点一

##部署zookeeper服务
wget https://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.5.8/apache-zookeeper-3.5.8-bin.tar.gz
tar -zxvf apache-zookeeper-3.5.8-bin.tar.gz -C /usr/local/
##配置zookeeper集群
cd /usr/local/apache-zookeeper-3.5.8-bin/conf
cp -rvf zoo_sample.cfg zoo.cfg
#以下配置需修改为自己的实际配置
sed -i "/^dataDir=/c dataDir=/app/data/zk-data" zoo.cfg
sed -i "/^dataDir=/a dataLogDir=/app/data/zk-logs" zoo.cfg
echo "server.1=192.168.47.41:2888:3888" >> zoo.cfg
echo "server.2=192.168.47.42:2888:3888" >> zoo.cfg
echo "server.3=192.168.47.43:2888:3888" >> zoo.cfg
#myid每个节点不同,此为第一个节点
echo "1" >> /app/data/zk-data/myid
##启动zookeeper服务
cd /app/local/apache-zookeeper-3.5.8-bin/bin/
./zkServer.sh start

节点二

##部署zookeeper服务
wget https://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.5.8/apache-zookeeper-3.5.8-bin.tar.gz
tar -zxvf apache-zookeeper-3.5.8-bin.tar.gz -C /usr/local/
##配置zookeeper集群
cd /usr/local/apache-zookeeper-3.5.8-bin/conf
cp -rvf zoo_sample.cfg zoo.cfg
#以下配置需修改为自己的实际配置
sed -i "/^dataDir=/c dataDir=/app/data/zk-data" zoo.cfg
sed -i "/^dataDir=/a dataLogDir=/app/data/zk-logs" zoo.cfg
echo "server.1=192.168.47.41:2888:3888" >> zoo.cfg
echo "server.2=192.168.47.42:2888:3888" >> zoo.cfg
echo "server.3=192.168.47.43:2888:3888" >> zoo.cfg
#myid每个节点不同,此为第二个节点
echo "2" >> /app/data/zk-data/myid
##启动zookeeper服务
cd /app/local/apache-zookeeper-3.5.8-bin/bin/
./zkServer.sh start

节点三

##部署zookeeper服务
wget https://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.5.8/apache-zookeeper-3.5.8-bin.tar.gz
tar -zxvf apache-zookeeper-3.5.8-bin.tar.gz -C /usr/local/
##配置zookeeper集群
cd /usr/local/apache-zookeeper-3.5.8-bin/conf
cp -rvf zoo_sample.cfg zoo.cfg
#以下配置需修改为自己的实际配置
sed -i "/^dataDir=/c dataDir=/app/data/zk-data" zoo.cfg
sed -i "/^dataDir=/a dataLogDir=/app/data/zk-logs" zoo.cfg
echo "server.1=192.168.47.41:2888:3888" >> zoo.cfg
echo "server.2=192.168.47.42:2888:3888" >> zoo.cfg
echo "server.3=192.168.47.43:2888:3888" >> zoo.cfg
#myid每个节点不同,此为第三个节点
echo "3" >> /app/data/zk-data/myid
##启动zookeeper服务
cd /app/local/apache-zookeeper-3.5.8-bin/bin/
./zkServer.sh start

查看zookeeper状态

./zkServer.sh status

搭建Kafka集群

节点一

##部署kafka服务
wget https://mirror.bit.edu.cn/apache/kafka/2.6.0/kafka_2.12-2.6.0.tgz
tar -zxvf kafka_2.12-2.6.0.tgz -C /usr/local/
##配置kafka集群
cd /usr/local/kafka_2.12-2.6.0/config/
#以下配置需修改为自己的实际配置
#broker.id每个节点不同,此为第一个节点
sed -i "/^broker.id=0/c   broker.id=1" server.properties
ip=`ip a | grep inet | grep -v inet6 | grep -v 127.0.0.1 | awk '{print $2}'| awk -F "/" '{print $1}'`
sed -i "/#listeners=PLAINTEXT:/c  listeners = PLAINTEXT://${ip}:9092" server.properties
sed -i "/^log.dirs=/c    log.dirs=/app/data/kafka-logs" server.properties
sed -i "/^zookeeper.connect=/c  zookeeper.connect=192.168.47.41:2181,192.168.47.42:2181,192.168.47.43:2181" server.properties
echo "delete.topic.enable=true" >> server.properties
##启动kafka服务并查看状态
cd /usr/local/kafka_2.12-2.6.0/bin/
./kafka-server-start.sh -daemon /usr/local/kafka_2.12-2.6.0/config/server.properties
jps

节点二

##部署kafka服务
wget https://mirror.bit.edu.cn/apache/kafka/2.6.0/kafka_2.12-2.6.0.tgz
tar -zxvf kafka_2.12-2.6.0.tgz -C /usr/local/
##配置kafka集群
cd /usr/local/kafka_2.12-2.6.0/config/
#以下配置需修改为自己的实际配置
#broker.id每个节点不同,此为第二个节点
sed -i "/^broker.id=0/c   broker.id=2" server.properties
ip=`ip a | grep inet | grep -v inet6 | grep -v 127.0.0.1 | awk '{print $2}'| awk -F "/" '{print $1}'`
sed -i "/#listeners=PLAINTEXT:/c  listeners = PLAINTEXT://${ip}:9092" server.properties
sed -i "/^log.dirs=/c    log.dirs=/app/data/kafka-logs" server.properties
sed -i "/^zookeeper.connect=/c  zookeeper.connect=192.168.47.41:2181,192.168.47.42:2181,192.168.47.43:2181" server.properties
echo "delete.topic.enable=true" >> server.properties
##启动kafka服务并查看状态
cd /usr/local/kafka_2.12-2.6.0/bin/
./kafka-server-start.sh -daemon /usr/local/kafka_2.12-2.6.0/config/server.properties
jps

节点三

##部署kafka服务
wget https://mirror.bit.edu.cn/apache/kafka/2.6.0/kafka_2.12-2.6.0.tgz
tar -zxvf kafka_2.12-2.6.0.tgz -C /usr/local/
##配置kafka集群
cd /usr/local/kafka_2.12-2.6.0/config/
#以下配置需修改为自己的实际配置
#broker.id每个节点不同,此为第三个节点
sed -i "/^broker.id=0/c   broker.id=3" server.properties
ip=`ip a | grep inet | grep -v inet6 | grep -v 127.0.0.1 | awk '{print $2}'| awk -F "/" '{print $1}'`
sed -i "/#listeners=PLAINTEXT:/c  listeners = PLAINTEXT://${ip}:9092" server.properties
sed -i "/^log.dirs=/c    log.dirs=/app/data/kafka-logs" server.properties
sed -i "/^zookeeper.connect=/c  zookeeper.connect=192.168.47.41:2181,192.168.47.42:2181,192.168.47.43:2181" server.properties
echo "delete.topic.enable=true" >> server.properties
##启动kafka服务并查看状态
cd /usr/local/kafka_2.12-2.6.0/bin/
./kafka-server-start.sh -daemon /usr/local/kafka_2.12-2.6.0/config/server.properties
jps

topic

只需在一个节点操作即可

## 创建
./kafka-topics.sh --create --topic wechat --partitions 10 --replication-factor 1 --zookeeper 192.168.47.41:2181,192.168.47.42:2181,192.168.47.43:2181
## 查看
./kafka-topics.sh  --topic wechat --describe --zookeeper 192.168.47.41:2181,192.168.47.42:2181,192.168.47.43:2181
## 删除
./kafka-topics.sh --delete --topic wechat --zookeeper 192.168.47.41:2181,192.168.47.42:2181,192.168.47.43:2181

学无止境,谦卑而行.

目录
相关文章
|
18天前
|
消息中间件 存储 监控
构建高可用性Apache Kafka集群:从理论到实践
【10月更文挑战第24天】随着大数据时代的到来,数据传输与处理的需求日益增长。Apache Kafka作为一个高性能的消息队列服务,因其出色的吞吐量、可扩展性和容错能力而受到广泛欢迎。然而,在构建大规模生产环境下的Kafka集群时,保证其高可用性是至关重要的。本文将从个人实践经验出发,详细介绍如何构建一个高可用性的Kafka集群,包括集群规划、节点配置以及故障恢复机制等方面。
51 4
|
1月前
|
消息中间件 监控 数据可视化
大数据-79 Kafka 集群模式 集群监控方案 JavaAPI获取集群指标 可视化监控集群方案: jconsole、Kafka Eagle
大数据-79 Kafka 集群模式 集群监控方案 JavaAPI获取集群指标 可视化监控集群方案: jconsole、Kafka Eagle
51 2
|
16天前
|
消息中间件 存储 Prometheus
Kafka集群如何配置高可用性
Kafka集群如何配置高可用性
|
1月前
|
消息中间件 分布式计算 监控
大数据-78 Kafka 集群模式 集群的应用场景与Kafka集群的搭建 三台云服务器
大数据-78 Kafka 集群模式 集群的应用场景与Kafka集群的搭建 三台云服务器
61 6
|
2月前
|
消息中间件 运维 Linux
linux之centos运维kafka
linux之centos运维kafka
|
2月前
|
消息中间件 Java Linux
linux 之centos7安装kafka;;;;;待补充,未完成
linux 之centos7安装kafka;;;;;待补充,未完成
|
3月前
|
消息中间件 Kafka 测试技术
【Kafka揭秘】Leader选举大揭秘!如何打造一个不丢失消息的强大Kafka集群?
【8月更文挑战第24天】Apache Kafka是一款高性能分布式消息系统,利用分区机制支持数据并行处理。每个分区含一个Leader处理所有读写请求,并可有多个副本确保数据安全与容错。关键的Leader选举机制保障了系统的高可用性和数据一致性。选举发生于分区创建、Leader故障或被手动移除时。Kafka提供多种选举策略:内嵌机制自动选择最新数据副本为新Leader;Unclean选举快速恢复服务但可能丢失数据;Delayed Unclean选举则避免短暂故障下的Unclean选举;Preferred选举允许基于性能或地理位置偏好指定特定副本为首选Leader。
69 5
|
3月前
|
消息中间件 监控 Java
联通实时计算平台问题之监控Kafka集群的断传和积压情况要如何操作
联通实时计算平台问题之监控Kafka集群的断传和积压情况要如何操作
|
3月前
|
消息中间件 监控 Java
【Kafka节点存活大揭秘】如何让Kafka集群时刻保持“心跳”?探索Broker、Producer和Consumer的生死关头!
【8月更文挑战第24天】在分布式系统如Apache Kafka中,确保节点的健康运行至关重要。Kafka通过Broker、Producer及Consumer间的交互实现这一目标。文章介绍Kafka如何监测节点活性,包括心跳机制、会话超时与故障转移策略。示例Java代码展示了Producer如何通过定期发送心跳维持与Broker的连接。合理配置这些机制能有效保障Kafka集群的稳定与高效运行。
70 2
|
3月前
|
运维 负载均衡 监控
"Linux高可用集群背后的神秘力量:揭秘心跳机制,如何确保服务永不掉线?"
【8月更文挑战第21天】今天探讨Linux高可用集群中的心跳机制——节点间定期发送信号以确认彼此状态的关键技术。它主要用于故障检测、负载均衡及资源接管。示例代码展示如何使用Corosync+Pacemaker配置心跳,确保服务连续性与可靠性。正确配置心跳机制能够显著提升系统的稳定性。
52 1