linux安装Kafka

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
注册配置 MSE Nacos/ZooKeeper,118元/月
日志服务 SLS,月写入数据量 50GB 1个月
简介: linux安装Kafka

#kafaka单节点部署

PS:Kafka中单节点部署又分为两种,一种为单节点单Broker部署,一种为单节点多Broker部署。因为是单节点的Kafka,所以在安装ZK时也只需要单节点即可。

#部署单击Zookeeper

安装完Zookeeper后,输入命令启动后,jps中并没有查看到QuorumPeerMain进程,说明没有启动成功。

#安装kafka

1.解压可以忽略

1,进入下载路径下,比如我的就是进入Downloads下。

 

输入命令: cd Downloads

 

2,解压到当前文件夹

 

输入:tar zxvf  文件名.tgz -C ./    比如我的是:tar zxvf simple-examples.tgz -C ./

 

3,解压到指定文件夹下

 

输入:tar  zxvf 文件名.tgz  -C /指定路径

 

比如我想解压到Home下:则变成tar zxvf simple-examples.tgz -C /Home

2. cd /usr/local/kafka_2.12-2.2.0/config

进入kafka的config目录下,有一个server.properties,添加如下配置

# broker的全局唯一编号,不能重复

broker.id=0

# 监听

listeners=PLAINTEXT://:9092

# 日志目录

log.dirs=/home/hadoop/kafka-logs

# 配置zookeeper的连接(如果不是本机,需要该为ip或主机名)

zookeeper.connect=localhost:2181

# 启动Zookeeper  启动Kafka

kafka-server-start.sh $KAFKA_HOME/config/server.properties

# 可以这么启动nohup ./kafka-server-start.sh /usr/local/kafka_2.12-2.2.0/config/server.properties &

[hadoop@Master ~]$ jps  看到如下信息

9173 Kafka

9462 Jps

8589 QuorumPeerMain

[hadoop@Master ~]$ jps -m

9472 Jps -m

9173 Kafka /opt/kafka/config/server.properties

8589 QuorumPeerMain /opt/zookeeper/bin/../conf/zoo.cfg

# 创建topic

cd /usr/local/kafka_2.12-2.2.0/bin

[root@localhost bin]# ./kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

Created topic test.

You have new mail in /var/spool/mail/root

表示创建成功

# 参数说明:

–zookeeper:指定kafka连接zk的连接url,该值和server.properties文件中的配置项{zookeeper.connect}一样

–replication-factor:指定副本数量

–partitions:指定分区数量

–topic:主题名称

#查看所有的topic信息

[root@localhost bin]# ./kafka-topics.sh --list -zookeeper localhost:2181

test

[root@localhost bin]#

 

#启动生产者,启动后如图

[root@localhost bin]# ./kafka-console-producer.sh --broker-list localhost:9092 --topic test

>

#启动消费者

PS:kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning 这个命令是09以后的启动方法

PS:./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning 0.90版本之后启动消费者的方法

[root@localhost bin]# ./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning

#测试数据

1.在生产上实时输入

[root@localhost bin]# ./kafka-console-producer.sh --broker-list localhost:9092 --topic test

>hello world

>

2.消费者实时接收

[root@localhost bin]# ./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning

hello world

3.注意

./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning 这么启动以前的消息也会被消费

./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test  这么启动只会消费最新的消息

############################################# 到此Kafka 单节点单Broker 部署完毕 #####################################################################

 

 

 

############################################# Kafka 单节点多Broker部署及使用 #####################################################################

#配置kafka

拷贝server.properties三份

[hadoop@Master ~]$ cd /opt/kafka/config

[hadoop@Master config]$ cp server.properties server-1.properties

[hadoop@Master config]$ cp server.properties server-2.properties

[hadoop@Master config]$ cp server.properties server-3.properties

 

修改 server-1.properties文件

# broker的全局唯一编号,不能重复

broker.id=1

# 监听

listeners=PLAINTEXT://:9093

# 日志目录 log一定要修改 否则也会启动失败

log.dirs=/home/hadoop/kafka-logs-1

 

修改server-2.properties文件

# broker的全局唯一编号,不能重复

broker.id=2

# 监听

listeners=PLAINTEXT://:9094

# 日志目录

log.dirs=/home/hadoop/kafka-logs-2

 

修改server-3.properties文件

# broker的全局唯一编号,不能重复

broker.id=3

# 监听

listeners=PLAINTEXT://:9094

# 日志目录

log.dirs=/home/hadoop/kafka-logs-3

 

# 启动

1.启动zookeepre 。正常启动就行

2.kafka 需要这么启动

$ kafka-server-start.sh $KAFKA_HOME/config/server-1.properties

$ kafka-server-start.sh $KAFKA_HOME/config/server-2.properties

$ kafka-server-start.sh $KAFKA_HOME/config/server-3.properties

或者  nohup ./kafka-server-start.sh /usr/local/kafka_2.12-2.2.0/config/server-1.properties &  挨个启动

# 查看  jps 如图便是启动成功

[root@localhost local]# jps

6512 Jps

2707 QuorumPeerMain

5495 Kafka

5496 Kafka

5497 Kafka

 

# 创建topic(指定副本数量为3)

 

./kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic Created topic my-replicated-topic

 

# 查看所有的topic信息

my-replicated-topic

test

 

# 查看topic 详细信息

[root@localhost bin]# ./kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic

Topic:my-replicated-topic PartitionCount:1 ReplicationFactor:3 Configs:

Topic: my-replicated-topic Partition: 0 Leader: 5 Replicas: 5,6,7 Isr: 5,6,7

[root@localhost bin]#

 

# 启动生产者

./kafka-console-producer.sh --broker-list localhost:9095,localhost:9096,localhost:9097 --topic my-replicated-topic

 

 

[root@localhost bin]# ./kafka-console-producer.sh --broker-list localhost:9095,localhost:9096,localhost:9097 --topic my-replicated-topic

>

 

# 启动消费者

PS :kafka消费者时报Connection to node 2 could not be established. Broker may not be available.这个错误

相关文章
|
8天前
|
Oracle 关系型数据库 Linux
linux8安装oracle 11g遇到的问题记录
Oracle 11g在Linux 8上安装时会遇到link编译环节的问题。官方建议忽略安装中的链接错误,安装完成后应用DBPSU 11.2.0.4.240716补丁及一次性补丁33991024,再重新编译二进制文件,并配置监听器和数据库。但因11g已退出服务期,这些补丁需付费获取。网上信息显示22年1月的PSU补丁也可解决问题,找到该补丁后按常规方式打补丁即可。如有需求或疑问可咨询我。
47 20
|
24天前
|
消息中间件 Java Kafka
【手把手教你Linux环境下快速搭建Kafka集群】内含脚本分发教程,实现一键部署多个Kafka节点
本文介绍了Kafka集群的搭建过程,涵盖从虚拟机安装到集群测试的详细步骤。首先规划了集群架构,包括三台Kafka Broker节点,并说明了分布式环境下的服务进程配置。接着,通过VMware导入模板机并克隆出三台虚拟机(kafka-broker1、kafka-broker2、kafka-broker3),分别设置IP地址和主机名。随后,依次安装JDK、ZooKeeper和Kafka,并配置相应的环境变量与启动脚本,确保各组件能正常运行。最后,通过编写启停脚本简化集群的操作流程,并对集群进行测试,验证其功能完整性。整个过程强调了自动化脚本的应用,提高了部署效率。
【手把手教你Linux环境下快速搭建Kafka集群】内含脚本分发教程,实现一键部署多个Kafka节点
|
28天前
|
Linux Python
Linux 安装python3.7.6
本教程介绍在Linux系统上安装Python 3.7.6的步骤。首先使用`yum`安装依赖环境,包括zlib、openssl等开发库。接着通过`wget`下载Python 3.7.6源码包并解压。创建目标文件夹`/usr/local/python3`后,进入解压目录执行配置、编译和安装命令。最后设置软链接,使`python3`和`pip3`命令生效。
|
1月前
|
Ubuntu Linux
Linux 各发行版安装 ping 命令指南
如何在不同 Linux 发行版(Ubuntu/Debian、CentOS/RHEL/Fedora、Arch Linux、openSUSE、Alpine Linux)上安装 `ping` 命令,详细列出各发行版的安装步骤和验证方法,帮助系统管理员和网络工程师快速排查网络问题。
141 20
|
24天前
|
NoSQL 关系型数据库 MySQL
Linux安装jdk、mysql、redis
Linux安装jdk、mysql、redis
168 7
|
1月前
|
Unix Linux 编译器
UNIX/Linux 上的安装
UNIX/Linux 上的安装。
50 2
|
3月前
|
Linux 测试技术 网络安全
Linux系统之安装OneNav个人书签管理器
【10月更文挑战第19天】Linux系统之安装OneNav个人书签管理器
129 5
Linux系统之安装OneNav个人书签管理器
|
2月前
|
NoSQL Linux PHP
如何在不同操作系统上安装 Redis 服务器,包括 Linux 和 Windows 的具体步骤
本文介绍了如何在不同操作系统上安装 Redis 服务器,包括 Linux 和 Windows 的具体步骤。接着,对比了两种常用的 PHP Redis 客户端扩展:PhpRedis 和 Predis,详细说明了它们的安装方法及优缺点。最后,提供了使用 PhpRedis 和 Predis 在 PHP 中连接 Redis 服务器及进行字符串、列表、集合和哈希等数据类型的基本操作示例。
93 4
|
3月前
|
监控 Java Linux
Linux系统之安装Ward服务器监控工具
【10月更文挑战第17天】Linux系统之安装Ward服务器监控工具
82 5
Linux系统之安装Ward服务器监控工具
|
2月前
|
存储 安全 数据管理
如何在 Rocky Linux 8 上安装和配置 Elasticsearch
本文详细介绍了在 Rocky Linux 8 上安装和配置 Elasticsearch 的步骤,包括添加仓库、安装 Elasticsearch、配置文件修改、设置内存和文件描述符、启动和验证 Elasticsearch,以及常见问题的解决方法。通过这些步骤,你可以快速搭建起这个强大的分布式搜索和分析引擎。
85 5