【Kafka】基于Windows环境的Kafka有关环境(scala+zookeeper+kafka+可视化工具)搭建、以及使用.NET环境开发的案例代码与演示

本文涉及的产品
注册配置 MSE Nacos/ZooKeeper,118元/月
云原生网关 MSE Higress,422元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: 基于Windows系统下的Kafka环境搭建;以及使用.NET 6环境进行开发简单的生产者与消费者的演示。


前言:基于Windows系统下的Kafka环境搭建;以及使用.NET 6环境进行开发简单的生产者与消费者的演示。

 

一、环境部署


Kafka是使用Java语言和Scala语言开发的,所以需要有对应的Java环境,以及Scala语言环境。

Java环境配置,如果不清楚的,可以查看鄙人的另一篇博客:

https://www.cnblogs.com/weskynet/p/14852471.html

 

1、Scala环境安装,需要先下载Scala语言包,下载地址:

https://www.scala-lang.org/download/scala2.html

 

要选择Binaries版本的环境,否则需要自己编译:

1995789-20220121233845174-1968751283.png

 

2、Kafka基于Zookeeper环境运行,zookeeper提供给kafka一系列的功能支持,所以还需要安装Zookeeper有关的环境。下载zookeeper地址:

https://zookeeper.apache.org/releases.html#download

 

1995789-20220121234031423-1498852000.png

 

3、同样,Zookeeper也需要下载带bin 的链接,没有带bin的链接,可能是源码,需要自己编译:

 1995789-20220121234042119-1609696911.png

 

4、接下来是下载主角,Kafka了。下载地址:

https://kafka.apache.org/downloads.html

1995789-20220121234050129-939922519.png

 

5、同样需要选择下载binary版本,然后根据scala的版本选择对应的版本。

 

1995789-20220121234058837-471215852.png

 

6、下载的三个安装包,如图所示:


1995789-20220121234108295-591191618.png

 

7、先安装Scala语言包环境:

 1995789-20220121234115856-679419280.png

 

8、验证Scala语言包是否安装成功:

控制台窗口,输入:scala -version

如果提示类似如下有关版本信息,则代表安装成功。

1995789-20220121234124904-1502173649.png

 

9、然后是安装zookeeper环境。必须先启动zookeeper,才可以使用kafka。

安装zookeeper环境,先解压下载的包,然后在解压后的目录下新增data文件夹

1995789-20220121234133947-1236090861.png

 

10、然后复制data文件夹的绝对路径,备用。在conf文件夹下,编辑cfg文件

 1995789-20220121234142606-1476155472.png

 

11、在cfg文件内,修改dataDir指定为上面新建的data文件夹的绝对路径。注意路径是斜杠/,如果要使用 \ 反斜杆,需要写双反斜杠 \\

 1995789-20220121234149392-25967670.png

 

12、也要更改cfg格式的文件名称为 zoo.cfg 否则zookeeper无法识别配置文件。Zoo.cfg文件是zookeeper启动时候自动关联的默认配置文件名称。

1995789-20220121234157894-1612505954.png

 

13、然后新建环境变量 ZOOKEEPER_HOME:

1995789-20220121234214199-1906494318.png

 

14、环境变量path新增:%ZOOKEEPER_HOME%\bin


 1995789-20220121234222570-71977285.png

 

15、启动zookeeper,直接任意打开控制台,输入 zkServer

 1995789-20220121234233810-194473166.png

 

16、如果都没有报错,一般是启动成功了的。再次验证下,可以任意开个控制台,输入JPS进行查看,如下图所示,有JPS、也有QuorumPeerMain,代表zookeeper启动成功了。

1995789-20220121234244186-1681773635.png

 

17、Kafka环境安装。先解压,然后在解压后的目录下,新增logs文件夹

 1995789-20220121234254482-132794321.png

 

18、然后在Config文件夹下,修改 server.properties 文件,修改 log.dirs 的值为 新增的logs文件夹的绝对路径

1995789-20220121234304194-1008877938.png

 

19、进入到解压后的kafka目录下,在路径栏输入cmd,快速打开当前文件夹下的控制台窗口:

 1995789-20220121234313534-1713656591.png

 

20、输入命令:

.\bin\windows\kafka-server-start.bat .\config\server.properties

进行启动Kafka服务:

 1995789-20220121234323158-226262415.png

 

21、启动Kafka报错了,可能是版本问题,kafka一般新版本对windows环境不友好,所以降级一下。此处我把kafka3.0降级为2.8:

 1995789-20220121234334087-865269622.png

 

22、此处我下载的版本为 2.13-2.8.1,各位大佬们可以按照自己意愿选择版本。可能2.x版本和3.x版本跨度比较大,所以3.0版本没法玩。

1995789-20220121234342701-391875125.png

 

23、然后是重复以上配置kafka有关的动作,修改有关配置文件以及新增logs文件夹等。此处省略。

1995789-20220121234350125-800296702.png

 

24、接着在低版本的kafka目录下,快速进入当前解压缩的目录下,再次输入有关命令尝试一下:

 1995789-20220121234358770-362202472.png

 

25、没有提示错误,根据提示信息,代表是启动成功了。任意打开控制台,再输入JPS查看下,可以看到Kafka,确认是启动OK了。

 1995789-20220121234408479-1402417354.png

 

26、然后是要一款Kafka可视化工具,此处我选择使用offset explorer  (原来是叫kafka tools,如下载地址所示),下载地址:

https://www.kafkatool.com/download.html

 1995789-20220121234420501-1879684648.png

 

27、安装可视化工具,默认可以一直下一步:


 1995789-20220121234431434-637387667.png

 

28、可以在安装目录下把可执行程序发送到桌面快捷方式,方便打开。

 1995789-20220121234440190-171222634.png

 

29、一些配置,包括名称、kafka版本、端口号、服务地址等

1995789-20220121234450103-1848054763.png

 

30、连接以后的效果图,如下。Topic是空的,接下来写点代码。

1995789-20220121234459775-449142215.png

 

二、代码开发与测试


31、新建类库项目,当作kafka服务类库

1995789-20220121234509867-206063450.png

 

32、此处选择标准库2.1,用于可以给多种.net core版本使用,方便兼容。

 1995789-20220121234517490-311358850.png

  

33、引用 Confluent.Kafka 包。

 1995789-20220121234528358-2000910560.png

 

34、此处新增发布服务类和订阅服务类:

1995789-20220121234539075-1799001904.png

 

35、新增的生产者发布服务方法代码如下:

1995789-20220121234548599-1496443564.png


代码:


/// <summary>
    /// Description: Kafka生产者发布服务
    /// CreateTime: 2022/1/21 19:35:27
    /// Author: Wesky
    /// </summary>
    public class PublishService: IPublishService
    {
        public async Task PublishAsync<TMessage>(string broker, string topicName, TMessage message) where TMessage : class
        {
            var config = new ProducerConfig
            {
                BootstrapServers = broker, // kafka服务集群,例如  "192.168.0.1:9092,192.168.0.2:9092"   或者单机 "192.168.0.1:9092"
                Acks = Acks.All,
                MessageSendMaxRetries = 3, // 发送失败重试的次数
            };
            using (var producer = new ProducerBuilder<string, string>(config).Build())
            {
                try
                {
                    string data = Newtonsoft.Json.JsonConvert.SerializeObject(message);
                    var sendData = new Message<string, string> { Key = Guid.NewGuid().ToString("N"), Value = data};
                    var report =  await producer.ProduceAsync(topicName, sendData);
                    Console.WriteLine($"消息 >>>>>: {data} \r\n发送到:{report.TopicPartitionOffset}");
                }
                catch (ProduceException<string, string> ex)
                {
                    Console.WriteLine($"消息发送失败>>>>>:\r\n Code= {ex.Error.Code} >>> \r\nError= {ex.Message}");
                }
            }
        }
    }


36、新增的消费者接收服务方法代码如下:

1995789-20220121234557211-8566331.png

 

代码:


/// <summary>
    /// Description: kafka 消费者订阅服务
    /// CreateTime: 2022/1/21 19:36:25
    /// Author: Wesky
    /// </summary>
    public class SubscribeService: ISubscribeService
    {
        /// <summary>
        /// 消费者服务核心代码
        /// </summary>
        /// <typeparam name="TMessage"></typeparam>
        /// <param name="config">消费者配置信息</param>
        /// <param name="topics">主题集合</param>
        /// <param name="func"></param>
        /// <param name="cancellationToken"></param>
        /// <returns></returns>
        public async Task SubscribeAsync<TMessage>(ConsumerConfig config, IEnumerable<string> topics,  Action<TMessage> func, CancellationToken cancellationToken) where TMessage : class
        {
            const int commitPeriod = 1;
            using (var consumer = new ConsumerBuilder<Ignore, string>(config)
             .SetErrorHandler((_, e) =>
             {
                 Console.WriteLine($"消费错误 >>>>>: {e.Reason}");
             })
             .SetStatisticsHandler((_, json) =>
             {
                 Console.WriteLine($"************************************************");
             })
             .SetPartitionsAssignedHandler((c, partitionList) =>
             {
                 string partitions = string.Join(", ", partitionList);
                 Console.WriteLine($"分配的分区 >>>>> : {partitions}");
             })
             .SetPartitionsRevokedHandler((c, partitionList) =>
             {
                 string partitions = string.Join(", ", partitionList);
                 Console.WriteLine($"回收的分区 >>>>> : {partitions}");
             })
             .Build())
            {
                consumer.Subscribe(topics);
                try
                {
                    while (true)
                    {
                        try
                        {
                            var consumeResult = consumer.Consume(cancellationToken);
                            if (consumeResult.IsPartitionEOF)
                            {
                                continue;
                            }
                            if(consumeResult?.Offset % commitPeriod == 0){
                                try
                                {
                                    var result = JsonConvert.DeserializeObject<TMessage>(consumeResult.Message?.Value);
                                    func(result); // 消费消息
                                }
                                catch (Exception ex)
                                {
                                    Console.WriteLine($"消费业务处理失败: {ex.Message}");
                                }
                                try
                                {
                                    consumer.Commit(consumeResult);  // 手动提交
                                    Console.WriteLine($"消费者消费完成,已提交 ");
                                }
                                catch (KafkaException e)
                                {
                                    Console.WriteLine($"提交错误 >>>>> : {e.Error.Reason}");
                                }
                            }
                        }
                        catch (ConsumeException e)
                        {
                            Console.WriteLine($"消费错误>>>>> : {e.Error.Reason}");
                        }
                    }
                }
                catch (Exception e)
                {
                    Console.WriteLine($"其他错误 >>>>> :{e.Message}");
                    consumer.Close();
                }
            }
            await Task.CompletedTask;
        }
    }

37、并且提供对应的接口服务,用于开放给外部调用,或者提供依赖注入使用:

 1995789-20220121234804184-557736248.png

 

38、新建一个控制台项目,用来当作消费者端的测试,并且新增一个方法,用来当作消费者接收到消息以后的业务处理方法体。此处控制台环境版本为.NET 6

 1995789-20220121234823876-789291207.png

 

39、消费客户端代码如下。其中,BootstrapServers也可以提供集群地址,例如 ip1:port,ip2:port…… 服务之间以半角逗号隔开。

1995789-20220121234853576-80216115.png

 

40、再新增一个webapi项目,用来当作生产者的客户端进行发送数据。以及对kafka服务类部分进行依赖注入注册,此处使用单例。该webapi此处使用.NET 6环境,带有控制器的模式。

 1995789-20220121234910776-1748652765.png

 

41、新增的控制器里面,进行生产者的注入与实现。注意:topicName参数对应上边的topic-wesky,通过主题绑定,否则消费者不认识就没办法消费到了。

1995789-20220121234923901-195310594.png


控制器代码:


[Route("api/[controller]/[action]")]
    [ApiController]
    public class ProducerController : ControllerBase
    {
        IPublishService _service = null;
        public ProducerController(IPublishService publishService)
        {
            _service = publishService;
        }
        [HttpPost]
        public IActionResult SendMessage(string broker,string topicName,string message)
        {
            _service.PublishAsync(broker, topicName, message);
            return Ok();
        }
    }


42、接下来是一些测试,如图所示:

1995789-20220121235056596-2037531808.png

 

43、最后,使用可视化管理工具Offset进行查看,可以看到对应的主题。选中主题,可以设置数据类型,这里我设置为字符串,就可以查看到对应的消息内容了。如果没有设置,默认是16进制的数据。

1995789-20220121235112885-1315866318.png

 

44、查看刚刚测试时候收发的消息队列里面的数据,如下所示:

1995789-20220121235120770-836684877.png

 

45、一些额外补充:

Kafka也是消息队列的一种,用于在高吞吐量场景下使用比较适合。如果是轻量级的,只需要用于削峰,可以使用RabbitMQ。

以上只是简单的操作演示,至于要用得溜,观众朋友们可以自行补充所需的相关理论知识。

可视化工具还有一款yahoo提供的开源的工具,叫kafka-manager,有兴趣的大佬们可以自行玩玩,开源地址:

https://github.com/yahoo/CMAK

 

还有一款滴滴平台做的开源的kafka运维管理平台,有兴趣的大佬们也可以自行了解,地址:

https://github.com/didi/LogiKM

 

 

以上就是该博客的全部内容,感谢各位大佬们的观看~


目录
相关文章
|
1月前
|
消息中间件 运维 算法
Kafka 为什么要抛弃 Zookeeper?
本文探讨了Kafka为何逐步淘汰ZooKeeper。长久以来,ZooKeeper作为Kafka的核心组件,负责集群管理和协调任务。然而,随着Kafka的发展,ZooKeeper带来的复杂性增加、性能瓶颈及一致性问题日益凸显。为解决这些问题,Kafka引入了KRaft,这是一种基于Raft算法的内置元数据管理方案,不仅简化了部署流程,还提升了系统的一致性和扩展性。本文详细分析了这一转变背后的原因及其带来的优势,并展望了Kafka未来的发展方向。
107 1
|
1月前
|
消息中间件 分布式计算 NoSQL
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
40 0
|
1月前
|
消息中间件 存储 分布式计算
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
82 0
|
3月前
|
Linux C++ Windows
【Azure 应用服务】Azure App Service(Windows)环境中如何让.NET应用调用SAP NetWeaver RFC函数
【Azure 应用服务】Azure App Service(Windows)环境中如何让.NET应用调用SAP NetWeaver RFC函数
【Azure 应用服务】Azure App Service(Windows)环境中如何让.NET应用调用SAP NetWeaver RFC函数
|
1月前
|
消息中间件 监控 Ubuntu
大数据-54 Kafka 安装配置 环境变量配置 启动服务 Ubuntu配置 ZooKeeper
大数据-54 Kafka 安装配置 环境变量配置 启动服务 Ubuntu配置 ZooKeeper
76 3
大数据-54 Kafka 安装配置 环境变量配置 启动服务 Ubuntu配置 ZooKeeper
|
22天前
|
安全 算法 编译器
.NET 9 AOT的突破 - 支持老旧Win7与XP环境
【10月更文挑战第30天】在.NET 9 中,AOT(Ahead-of-Time)编译技术在支持老旧的 Windows 7 和 XP 系统方面取得了显著进展。主要突破包括:性能提升(启动速度加快、执行效率提高)、部署优化(无需安装.NET 运行时、减小应用程序体积)、兼容性保障(编译策略优化、依赖项管理改进)以及安全性增强(代码保护机制)。这些改进使得应用程序在老旧系统上运行更加流畅、高效和安全。
|
23天前
|
XML 安全 API
.NET 9 AOT的突破 - 支持老旧Win7与XP环境
.NET 9开始,AOT支持Win7和XP,不仅仅只支持SP1版本
.NET 9 AOT的突破 - 支持老旧Win7与XP环境
|
1月前
|
消息中间件 存储 druid
大数据-156 Apache Druid 案例实战 Scala Kafka 订单统计
大数据-156 Apache Druid 案例实战 Scala Kafka 订单统计
40 3
|
1月前
|
数据采集
爬虫案例—爬取ChinaUnix.net论坛板块标题
爬虫案例—爬取ChinaUnix.net论坛板块标题
爬虫案例—爬取ChinaUnix.net论坛板块标题
|
2月前
|
消息中间件 Java Kafka
windows服务器重装系统之后,Kafka服务如何恢复?
windows服务器重装系统之后,Kafka服务如何恢复?
30 8