Kafka(Quickstart)

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
注册配置 MSE Nacos/ZooKeeper,118元/月
简介:

This tutorial assumes you are starting fresh and have no existing Kafka or ZooKeeper data. Since Kafka console scripts are different for Unix-based and Windows platforms, on Windows platforms use binwindows instead of bin/, and change the script extension to .bat.
第一步:下载 kafka
第二步 开启服务
指令: zookeeper-server-start.sh server.properties
创建create a topic
kafka-topics-sh --create --zookeeper master:2181 --replication-factor 1 --partitions 1 --topic test
看创建结果
kafka-topics-sh --list --zookeeper master:2181
发送一些信息
kafka-console-producer.sh --broker-list localhost:9092 --topic test

开启一个消费
kafka-console-consumer.sh --bootstrap-server master:9092 --topic test --from-beginning
建立一个有多个broker的集群
将config下的server.properties文件复制
更改里面的三行内容

  1. broker.id=1 id号唯一所以多个得用不同数字代替
    2.listeners=planintext://:9093 过个broker需要改这个端口号

3.log.dir=/tmp/kafka-logs 更改文件名 保证每个broker都有有个 不重复

启动多个broker文件的时候 指令
kafka-server-start.sh server-1.properties &
kafka-server-start.sh server-2.properties &
&表示切换线程到后台执行

kafka-topics.sh --describe --zookeeper master:2181 --topic test
显示主分区一个 副本一个
显然这是kafka的高可用原因

第七步

利用
kafka练剑输入输出数据

通过控制台写数据 或者写数据返回到控制台是非常方便的. 但是你兴许想使用其他资源或者到处数据从kafka到系统上 对于许多系统 代替写定制代码 你可以通过kafka链接导入或者到处数据

Kafka链接是一个工具包括导入导出数据 运行在实现客户逻辑为交互扩展的系统 在这个快速开始的例子中我们将看到如何运行kafka链接通过简单的连接器导入数据从一个文件到Kafka 到出数据从Kafa到一个文件

echo -e "foonbar">test.txt
或者在windows上
echo foo>test.txt
echo bar>>test.txt

接下来 我们开启两个连接器 运行在standalone 模式中 这意味着他们运行在一个简单 的 当地 专用的通道 我们提供三个配置文件作为参数

第一个配置kafka链接进程 包含公共配置就像brokers链接序列化格式为数据 剩下的配置文件分别制定一个创建的连接器 这些文件都有唯一的链接器名字 以及类的实现 和其他的对连接器的要求

connect-standalone.sh config
/connect-standalone.properties config
/connect-file-source.properties config
/connect-file-sink.properties
这些例子配置文件 包括在Kafka 使用默认的当地集成配置有提前开启 并创建两个连接器 第一个是个资源连接器 用于读取行从输入的文件中并且生产作为一行存在Kafka 的topic中 第二个是一个冗余连接器 用于读取信息从Kafka的topic 中并且生成的作为一行存在输出文件中

在启动期间 已将会看到许多日志信息 包括一些指定的连接器被实现
一旦kafka链接进程开始 资源链接器就会开始读取行 从test,txt文件 并且生成他们到名为connect-test的topics中 然后就是冗余链接器会开始读取信息从topics为connect-test的分区中 并且写到test.sink.txt文件中 我们可以审核已经递交的数据通过整个管道从检查整个输出文件
more test.sink.txt

记录数据被存储在kafka的topic为connect-test中 所以我们也可以运行控制台的消费端 去开数据(或者使用客户的消费之代码运行它)

kafka-console-consumer.sh --bootstrap-server master :9093 --topic connect-test

第八步 使用Kafka 流 处理数据

kafka流是一个客户端的图书馆 为建立关键任务 实时应用 微服务 那些输入或者输出数据被存储在kafka集群上 卡夫卡流结合了编写和部署标准Java和Scala应用程序在客户端的简单性,以及卡夫卡服务器端集群技术的优点,使这些应用程序具有高度可伸缩性、弹性、容错、分布式等优点。

相关文章
|
消息中间件 Kafka Apache
kafka学习 之 Quickstart
kafka学习 之 Quickstart
141 0
|
消息中间件 Kafka Java
kafka官方文档学习笔记2--QuickStart
1)kafka的下载&安装; 2)kafka中bin目录中脚本和config目录下配置文件用途介绍; 3)topic的创建、删除;
1793 0
|
19天前
|
消息中间件 存储 运维
为什么说Kafka还不是完美的实时数据通道
【10月更文挑战第19天】Kafka 虽然作为数据通道被广泛应用,但在实时性、数据一致性、性能及管理方面存在局限。数据延迟受消息堆积和分区再平衡影响;数据一致性难以达到恰好一次;性能瓶颈在于网络和磁盘I/O;管理复杂性涉及集群配置与版本升级。
|
28天前
|
消息中间件 Java Kafka
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
39 1
|
3月前
|
消息中间件 Java Kafka
Kafka不重复消费的终极秘籍!解锁幂等性、偏移量、去重神器,让你的数据流稳如老狗,告别数据混乱时代!
【8月更文挑战第24天】Apache Kafka作为一款领先的分布式流处理平台,凭借其卓越的高吞吐量与低延迟特性,在大数据处理领域中占据重要地位。然而,在利用Kafka进行数据处理时,如何有效避免重复消费成为众多开发者关注的焦点。本文深入探讨了Kafka中可能出现重复消费的原因,并提出了四种实用的解决方案:利用消息偏移量手动控制消费进度;启用幂等性生产者确保消息不被重复发送;在消费者端实施去重机制;以及借助Kafka的事务支持实现精确的一次性处理。通过这些方法,开发者可根据不同的应用场景灵活选择最适合的策略,从而保障数据处理的准确性和一致性。
219 9
|
3月前
|
消息中间件 负载均衡 Java
"Kafka核心机制揭秘:深入探索Producer的高效数据发布策略与Java实战应用"
【8月更文挑战第10天】Apache Kafka作为顶级分布式流处理平台,其Producer组件是数据高效发布的引擎。Producer遵循高吞吐、低延迟等设计原则,采用分批发送、异步处理及数据压缩等技术提升性能。它支持按消息键值分区,确保数据有序并实现负载均衡;提供多种确认机制保证可靠性;具备失败重试功能确保消息最终送达。Java示例展示了基本配置与消息发送流程,体现了Producer的强大与灵活性。
65 3
|
3月前
|
vr&ar 图形学 开发者
步入未来科技前沿:全方位解读Unity在VR/AR开发中的应用技巧,带你轻松打造震撼人心的沉浸式虚拟现实与增强现实体验——附详细示例代码与实战指南
【8月更文挑战第31天】虚拟现实(VR)和增强现实(AR)技术正深刻改变生活,从教育、娱乐到医疗、工业,应用广泛。Unity作为强大的游戏开发引擎,适用于构建高质量的VR/AR应用,支持Oculus Rift、HTC Vive、Microsoft HoloLens、ARKit和ARCore等平台。本文将介绍如何使用Unity创建沉浸式虚拟体验,包括设置项目、添加相机、处理用户输入等,并通过具体示例代码展示实现过程。无论是完全沉浸式的VR体验,还是将数字内容叠加到现实世界的AR应用,Unity均提供了所需的一切工具。
118 0
|
3月前
|
消息中间件 存储 关系型数据库
实时计算 Flink版产品使用问题之如何使用Kafka Connector将数据写入到Kafka
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
3月前
|
消息中间件 监控 Kafka
实时计算 Flink版产品使用问题之处理Kafka数据顺序时,怎么确保事件的顺序性
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
3月前
|
消息中间件 缓存 Kafka
【Azure 事件中心】使用Kafka消费Azure EventHub中数据,遇见消费慢的情况可以如何来调节呢?
【Azure 事件中心】使用Kafka消费Azure EventHub中数据,遇见消费慢的情况可以如何来调节呢?