kafka Linux环境搭建安装及命令创建队列生产消费消息

简介: kafka Linux环境搭建安装及命令创建队列生产消费消息

本文为博主原创,未经允许不得转载:

  1. 安装JDK

    由于Kafka是用Scala语言开发的,运行在JVM上,因此在安装Kafka之前需要先安装JDK。

  yum install java‐1.8.0‐openjdk* ‐y

  2.  安装zookeeper

    kafka依赖zookeeper,所以需要先安装zookeeper

    2.1 进入zookeeper 官网:https://zookeeper.apache.org/releases.html

      选择并下载指定的zookeeper 版本安装包:

                             

    2.2  下载并解压

wget https://downloads.apache.org/zookeeper/zookeeper-3.4.11/apache-zookeeper-3.4.11.tar.gz
tar ‐zxvf zookeeper‐3.4.11.tar.gz

    2.3  配置zookeeper 配置文件,并启动 zookeeper

 cp conf/zoo_sample.cfg conf/zoo.cfg
 bin/zkServer.sh start   # 启动zookeeper 
 bin/zkCli.sh 
 ls / #查看zk的根目录相关节点

  3. 安装kafka

    3.1 下载解压 kafka

    打开kafka 官网下载页面 : http://kafka.apache.org/downloads.html , 选择对应的scala 语言版本与kafka版本进行下载:

wget https://archive.apache.org/dist/kafka/2.4.0/kafka_2.12-2.4.0.tgz    # 下载
tar ‐xzf kafka_2.12-2.4.0.tgz     # 解压

    3.2 启动 kafka ,并进入 zookeeper 客户端查看kafka 节点目录

      启动脚本语法: kafka­-server­-start.sh  [­daemon]  server.properties

      server.properties 的配置路径是一个强制的参数,­daemon表示以后台进程运行,否则ssh客户端退出后,就会停止服务。    

bin/kafka-server-start.sh config/server.properties    # 直接启动kafka
 bin/kafka-server-start.sh -daemon config/server.properties       # 以后台运行的方式启动kafka
  bin/zkCli.sh     进入zookeeper目录通过zookeeper客户端查看下zookeeper的目录树
 ls /          # 查看zk的根目录kafka相关节点
ls /brokers/ids   # 查看kafka节点
 bin/kafka-server-stop.sh config/server.properties     # 停止 kafka


  server.properties核心配置详解

    

Property

Default

Description

broker.id

0

每个broker都可以用一个唯一的非负整数id进行标识;这个id可以作为broker的“名字”,你可以选择任意你喜欢的数字作为id,只要id是唯一的即可。

log.dirs

/tmp/kafka-logs

kafka存放数据的路径。这个路径并不是唯一的,可以是多个,路径之间只需要使用逗号分隔即可;每当创建新partition时,都会选择在包含最少partitions的路径下进行。

listeners

PLAINTEXT://192.168.65.60:9092

server接受客户端连接的端口,ip配置kafka本机ip即可

zookeeper.connect

localhost:2181

zooKeeper连接字符串的格式为:hostname:port,此处hostname和port分别是ZooKeeper集群中某个节点的host和port;zookeeper如果是集群,连接方式为 hostname1:port1, hostname2:port2, hostname3:port3

log.retention.hours

168

每个日志文件删除之前保存的时间。默认数据保存时间对所有topic都一样。

num.partitions

1

创建topic的默认分区数

default.replication.factor

1

自动创建topic的默认副本数量,建议设置为大于等于2

min.insync.replicas

1

当producer设置acks为-1时,min.insync.replicas指定replicas的最小数目(必须确认每一个repica的写数据都是成功的),如果这个数目没有达到,producer发送消息会产生异常

delete.topic.enable

false

是否允许删除主题

  4. 创建主题


    4.1 创建一个名字为“test”的Topic,这个topic只有一个partition,并且备份因子也设置为1:


    注意: 当命令执行不通过时,将其中的localhost 更换成服务器的ip,或 127.0.0.1 尝试。 这个ip 是有

      

      #kafka部署的机器ip和提供服务的端口号 决定的:  默认是 127.0.0.1 ,如果指定ip 则以下命令都使用ip访问,

      如果没有配置,使用默认配置时,则使用 127.0.0.1 进行访问


bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test


    4.2 查看kafka中目前存在的topic


bin/kafka-topics.sh --list --zookeeper localhost:2181

      ( 除了我们通过手工的方式创建Topic,当producer发布一个消息到某个指定的Topic,这个Topic如果不存在,就自动创建。)

    4.3 删除主题

bin/kafka‐topics.sh ‐‐delete ‐‐topic test ‐‐zookeeper localhost:2181


  5. 发送消息

    kafka自带了一个producer命令客户端,可以从本地文件中读取内容,或者我们也可以以命令行中直接输入内容,并将这些内容

  以消息的形式发送到kafka集群中。在默认情况下,每一个行会被当做成一个独立的消息。首先我们要运行发布消息的脚本,

  然后在命令中输入要发送的消息的内容:

bin/kafka‐console‐producer.sh ‐‐broker‐list localhost:9092 ‐‐topic test
# 或 localhost 执行时通常需要在服务器的host 文件中配置对应的host才能解析,不然解析不了
bin/kafka-console-producer.sh --broker-list 112.125.26.68:9092 --topic test
 > produce send a msg

  

  6. 消费消息

     对于consumer,kafka同样也携带了一个命令行客户端,会将获取到内容在命令中进行输出,默认是消费最新的消息:

bin/kafka-console-consumer.sh --bootstrap-server 112.125.26.68:9092 --consumer-property group.id=testgroup --topic test

       

    如果想要消费之前的消息可以通过--from-beginning参数指定,如下命令:

bin/kafka-console-consumer.sh --bootstrap-server 127.0.0.1:9092 --from-beginning --topic test

    kafka 使用以上命令消费消息使用有的版本会报: zookeeper is not a recognized option 异常。可以使用以下命令进行消费:

./bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic wordsendertest --from-beginning

    查看组名

bin/kafka-consumer-groups.sh --bootstrap-server localhost:9092 -list

    查看消费者的消费偏移量

bin/kafka-consumer-groups.sh --bootstrap-server localhost:9092 --describe --group testgroup

  

 

 

标签: kafka

相关文章
|
7月前
|
Linux 应用服务中间件 Shell
二、Linux文本处理与文件操作核心命令
熟悉了Linux的基本“行走”后,就该拿起真正的“工具”干活了。用grep这个“放大镜”在文件里搜索内容,用find这个“探测器”在系统中寻找文件,再用tar把东西打包带走。最关键的是要学会使用管道符|,它像一条流水线,能把这些命令串联起来,让简单工具组合出强大的功能,比如 ps -ef | grep 'nginx' 就能快速找出nginx进程。
830 1
二、Linux文本处理与文件操作核心命令
|
7月前
|
安全 Ubuntu Unix
一、初识 Linux 与基本命令
玩转Linux命令行,就像探索一座新城市。首先要熟悉它的“地图”,也就是/根目录下/etc(放配置)、/home(住家)这些核心区域。然后掌握几个“生存口令”:用ls看周围,cd去别处,mkdir建新房,cp/mv搬东西,再用cat或tail看文件内容。最后,别忘了随时按Tab键,它能帮你自动补全命令和路径,是提高效率的第一神器。
1293 58
|
6月前
|
存储 安全 Linux
Linux卡在emergency mode怎么办?xfs_repair 命令轻松解决
Linux虚拟机遇紧急模式?别慌!多因磁盘挂载失败。本文教你通过日志定位问题,用`xfs_repair`等工具修复文件系统,三步快速恢复。掌握查日志、修磁盘、验重启,轻松应对紧急模式,保障系统稳定运行。
1185 2
|
7月前
|
缓存 监控 Linux
Linux内存问题排查命令详解
Linux服务器卡顿?可能是内存问题。掌握free、vmstat、sar三大命令,快速排查内存使用情况。free查看实时内存,vmstat诊断系统整体性能瓶颈,sar实现长期监控,三者结合,高效定位并解决内存问题。
695 0
Linux内存问题排查命令详解
|
消息中间件 存储 缓存
kafka 的数据是放在磁盘上还是内存上,为什么速度会快?
Kafka的数据存储机制通过将数据同时写入磁盘和内存,确保高吞吐量与持久性。其日志文件按主题和分区组织,使用预写日志(WAL)保证数据持久性,并借助操作系统的页缓存加速读取。Kafka采用顺序I/O、零拷贝技术和批量处理优化性能,支持分区分段以实现并行处理。示例代码展示了如何使用KafkaProducer发送消息。
|
消息中间件 存储 运维
为什么说Kafka还不是完美的实时数据通道
【10月更文挑战第19天】Kafka 虽然作为数据通道被广泛应用,但在实时性、数据一致性、性能及管理方面存在局限。数据延迟受消息堆积和分区再平衡影响;数据一致性难以达到恰好一次;性能瓶颈在于网络和磁盘I/O;管理复杂性涉及集群配置与版本升级。
603 1
|
消息中间件 Java Kafka
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
472 1
|
消息中间件 Java Kafka
Kafka不重复消费的终极秘籍!解锁幂等性、偏移量、去重神器,让你的数据流稳如老狗,告别数据混乱时代!
【8月更文挑战第24天】Apache Kafka作为一款领先的分布式流处理平台,凭借其卓越的高吞吐量与低延迟特性,在大数据处理领域中占据重要地位。然而,在利用Kafka进行数据处理时,如何有效避免重复消费成为众多开发者关注的焦点。本文深入探讨了Kafka中可能出现重复消费的原因,并提出了四种实用的解决方案:利用消息偏移量手动控制消费进度;启用幂等性生产者确保消息不被重复发送;在消费者端实施去重机制;以及借助Kafka的事务支持实现精确的一次性处理。通过这些方法,开发者可根据不同的应用场景灵活选择最适合的策略,从而保障数据处理的准确性和一致性。
1546 9
|
消息中间件 监控 Kafka
实时计算 Flink版产品使用问题之处理Kafka数据顺序时,怎么确保事件的顺序性
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
消息中间件 负载均衡 Java
"Kafka核心机制揭秘:深入探索Producer的高效数据发布策略与Java实战应用"
【8月更文挑战第10天】Apache Kafka作为顶级分布式流处理平台,其Producer组件是数据高效发布的引擎。Producer遵循高吞吐、低延迟等设计原则,采用分批发送、异步处理及数据压缩等技术提升性能。它支持按消息键值分区,确保数据有序并实现负载均衡;提供多种确认机制保证可靠性;具备失败重试功能确保消息最终送达。Java示例展示了基本配置与消息发送流程,体现了Producer的强大与灵活性。
342 3