消息队列Kafka「检索组件」重磅上线!

简介: 本文对消息队列 Kafka「检索组件」进行详细介绍,首先通过对消息队列使用过程中的痛点问题进行介绍,然后针对痛点问题提出相应的解决办法,并对关键技术技术进行解读,旨在帮助大家对消息队列 Kafka「检索组件」的特点及使用方式更加熟悉,以期可以帮助大家更有效的解决在消息排查过程中遇到的痛点问题。

作者:Kafka&Tablestore团队


前言


还在为消息队列使用时,不能高效排查重复和失败的消息而困扰吗?

还在为消息队列使用时,无法准确查找消息内容和定位问题而苦恼吗?

。。。

消息队列 Kafka「检索组件」来帮您~


本文对消息队列 Kafka「检索组件」进行详细介绍,首先通过对消息队列使用过程中的痛点问题进行介绍,然后针对痛点问题提出相应的解决办法,并对关键技术技术进行解读,旨在帮助大家对消息队列 Kafka「检索组件」的特点及使用方式更加熟悉,以期可以帮助大家更有效的解决在消息排查过程中遇到的痛点问题。


痛点问题介绍


在消息队列的使用过程中,业内默认的是假设消息进入消息队列后,消息是可靠的,丢失的概率也是低的。但实际应用中会面临各种各样的问题:


应用时面临的痛点问题


  • 由于分布式系统的特性,消息的失败、重复是不可避免的,对于失败和重复的排查,通常是依靠客户端的日志来推导,但如果规模庞大,客户手动做这个事情的难度也会很大,这就会使消息的可靠性受到挑战;


  • 此外,较大的项目一般由多人或多团队协作完成,消息发送和消费的代码实现方式也各异,这会给消息最终是否成功完成使命带来挑战;


  • 除了对问题结果的排查外,消息会不会在产生时就不符合预期呢?这同样也是困扰客户的难点之一。从目前消息队列的体系来看,还无法提供按照内容查看的方式来排查,导致了业务的正确性排查难度较大。


简单来说,消息领域往往每条消息都能代表具体的含义和动作,一旦出现失败、丢失和错误,在业内现有的消息队列现状下,很难排查具体问题,从而会导致定位整个上下游链路的问题难度较大。


技术侧面临的痛点问题


以上是客户在消息应用的场景中会面临的问题。基于应用场景问题,在技术侧同样会面临不少痛点,在处理消息问题排查时:


  • 首先需要研发的代码投入、部署和运维,同时运维人员需要比较熟悉 Kafka 的使用,需要通过使用 Kafka 客户端进行消费者消费,然后按照遍历的方式进行消息确认,从而确认消息的存在;


  • 除了需要研发的代码投入、部署和运维外,可能还需要引入其他产品,如对接流计算,通过流计算遍历消息等。


更为麻烦的是,目前这种排查往往是非常频繁的,经常以周、甚至以天为单位,会使得研发、部署和运维投入较高的时间成本;同时每次需要确认的元信息都不一样,会导致投入较大,而且灵活性也不高。


总结来说,消息队列在使用过程中对失败和重复等问题排查时,一来在没有较好的工具和方式完成对内容的检索,排查难度较高,准确性和易用性都不足;二来需要投入较高的时间和人力成本,投入大且不灵活。这些问题都会给用户在进行消息问题排查时带来不少困扰。


Kafka 检索组件介绍


通过上述痛点问题的介绍可以看到,目前在消息领域,对消息排查等存在比较多的痛点问题,为了解决以上问题,阿里云消息队列 Kafka 版重磅推出消息检索组件。下面对组件内容进行详细介绍:


检索组件简介


消息队列 Kafka「检索组件」是一个全托管、高弹性、交互式的检索组件,具备万亿级别消息内容检索的秒级响应能力。


  • 主要面向运维人员故障排查和恢复场景,用于消息相关的全链路消息排查,包括消息的发送、重复生产和丢失校验;主要功能包括支持消息按 Topic 分区、位点范围和时间范围检索,同时支持按消息 Key 和 Value 关键字检索等;


  • 主要用来解决业内消息产品不支持检索消息内容的难题。


消息队列 Kafka「消息检索」借助 Kafka Connect 功能及表格存储(Tablestore)实现,通过 Connector 对 Topic 中的消息进行转储,然后发送到表格存储中的数据表中,最后通过表格存储索引功能提供消息检索的能力。


其核心是提供了完备的消息内容检索能力,可以快速定位问题,同时便捷操作、节省人力;当用户使用时,在完成消息队列 Kafka 实例创建后,仅需简单五步即可实现对 Kafka 检索组件的应用:


1.png


下面简要对消息队列 Kafka 版消息检索的操作步骤进行介绍。


检索组件操作介绍


1)开通消息检索


首先开通某个实例下 Topic 的消息检索功能,以便根据需要对其 Topic 中的消息进行检索。步骤如下:


  • 登录消息队列 Kafka 版控制台;
  • 在概览页面的资源分布区域,选择地域;
  • 在左侧导航栏,单击消息检索;
  • 在消息检索页面,从选择实例的下拉列表选择需检索 Topic 消息所属的实例,然后单击开通消息检索;
  • 开通消息检索面板,填写开通参数,然后单击确定。


2.png


2)测试发送消息


开通消息检索后,可以向消息队列 Kafka 版的数据源 Topic 发送消息,以此来调度任务和测试消息检索是否创建成功。


  • 在消息检索页面,找到需要测试的目标 Topic,根据任务状态在对应位置操作;
  • 在快速体验消息收发面板中发送测试消息。


3.png

image.gif

3)搜索消息


  • 在消息检索页面,找到目标 Topic,在其操作列,单击搜索;
  • 在搜索面板,设置搜索条件,在搜索项下拉列表中选择需要添加的搜索项,单击添加搜索项,添加搜索项并在值列设置搜索信息,然后单击确定即可。


4.png

5.png

image.gif

4)查看消息检索任务详情


  • 开通消息检索后,即可查看自动创建的 Topic、Group、表格存储实例名称、表格存储数据表表名等详细信息,也可以在详情中直接进入表格存储数据表;
  • 在消息检索页面,找到目标 Topic,在其操作列,单击详情;
  • 在任务详情页面可以查看到目标 Topic 相关消息检索的详细信息;也可以在基础信息区域的目标服务栏,单击表格存储,即可进入数据表详情页面查看。


6.png


5)查看消费详情


支持查看订阅当前 Topic 的在线 Group 在 Topic 各个分区的消费进度,了解消息的消费和堆积情况。


  • 在消息检索页面,找到需要查看消费进度的目标 Topic,在其操作列,单击消费进度;
  • 如下图,在消费详情页面,可以查看 Topic 各分区的消费情况:


7.png


除以上功能外,在运行消息检索功能时,还可以实现暂停消息检索任务、启用消息检索任务和删除消息检索任务等操作。


Kafka 检索组件技术解读

之前消息队列 Kafka 版的消息检索方式仅支持根据消费位点或创建时间的两种范围来查找,依靠 Kafka 系统本身无法很好的支持用户对于通过关键字检索消息的需求。


为了更好的解决这个问题,Kafka 与 Tablestore 强强联合,将 Kafka 消息通过 Connector 导入 Tablestore 的数据表中,利用 Tablestore 的能力实现关键字检索。

image.gif

8.png


下面对关键技术进行解读:


Kafka Connect


Kafka Connect 的核心是为解决异构数据的同步问题。解决的思路是在各个数据源之间加一层消息中间件,所有的数据都经过消息中间件进行存储和分发。


9.png


这样做的好处有以下两点:


1)通过消息中间件做异步解耦,所有系统只和消息中间件通信;


2)需要开发的解析工具数量,也从原来的 n 平方个,变成线性的 2*n 个;Kafka Connect 则用于连接消息系统和数据源,根据数据的流向不同,连接可以分为 Source Connector 和 Sink Connector。


其原理也很简单,Source Connector 负责解析来源数据,转换成标准格式的消息,通过 Kafka Producer 发送到 Kafka Broker中。同理,Sink Connector 则通过 Kafka Consumer 消费对应的 Topic,然后投递到目标系统中。在整个过程中,Kafka Connect 统一解决了任务调度、与消息系统交互、自动扩缩容、容错以及监控等问题,大大减少了重复劳动。


消息队列 Kafka 版提供了全托管、免运维的 Kafka Connect,用于消息队列 Kafka 版和其他阿里云服务之间的数据同步。如下图所示,可以看到消息队列 Kafka 版支持了表格存储 Tablestore、Mysql Source Connector、OSS Sink Connector、MaxCompute Sink Connector 以及 FC Sink Connector 等主流的 Connector。如果用户想要使用这些 Connector 进行数据同步,只用在消息队列 Kafka 控制台的图形界面上做几个配置,就可以一键拉起 Connector 任务。


10.pngimage.gif


表格存储 Tablestore


表格存储 Tablestore 是构建在阿里云飞天分布式系统之上的海量结构化数据存储服务。基于飞天盘古分布式文件系统作为存储底座,采用存储计算分离架构,弹性共享资源池设计,实现了一个云原生的 Serverless 存储产品。内置分布式索引系统,可根据写入流量自动扩展构建索引所需的计算资源,支撑极高的写入流量。同时优化了索引结构,能够支持更快速的模糊查询。存算分离架构、高吞吐实时索引等关键能力让 Tablestore 能够支撑 Kafka 中海量数据的写入与高效搜索,帮助快速有效检索所需信息。


11.png


技术领先性


Kafka+Kafka Connect+ 表格存储 Tablestore 的云原生数据应用解决方案,通过 Kafka Connect 作为实时处理任务触发器,能够实时接收到新发送到消息队列集群的数据,然后转发到表格存储 Tablestore。


作为后续数据流转中的一环,Kafka Connect 除了保障数据的实时性以外,还解决了任务调度、与消息系统交互、自动扩缩容、容错以及监控等问题,大大减少了重复劳动。数据到了表格存储 Tablestore 以后,借助表格存储的分布式存储和强大的索引引擎,能够支持 PB 级存储、千万 TPS 和毫秒级延迟的服务能力,同时支持全托管、高弹性、交互式的检索组件,从而可实现秒级响应的万亿级别消息内容检索能力。


面向用户的价值与优势

Kafka 检索组件功能不仅具备较强的技术优势,同时还能为用户的实际工作带来更多便利:


1、排查成本低

只需要控制台的简单配置就能实现 Kafka 服务器集群内所有的消息的查看;


2、排查速度快

免开发、免资源评估、免部署、免运维;只要建立好检索条件,即可实现秒级查询响应;


3、排查准确性高

该检索组件功能由消息商业化团队和 Tablestore 团队核心研发联合打造,依托于阿里云云原生的能力,检索准确性高,可靠性和可用性可以得到很好的保障。


总结来说,Kafka 检索组件功能在实际业务中具备如下优势:


  • 快速定位问题,可实现消息上下游产品的故障、异常快速恢复,减少业务资损;
  • 节省企业成本,减少运维、研发等人员投入;
  • 降低学习成本,对消息产品的理解机制要求降低。


image.gif12.png

总结


阿里云消息队列 Kafka「检索组件」是消息队列领域内率先支持交互式消息内容检索的组件,具备免开发、免运维、高弹性的特点。对于在消息领域中的中、重度用户来说,阿里云消息队列 Kafka「检索组件」是日常排查消息存在 & 正确性的利器。


13.png


点击此处,前往相关产品文档了解详情!

相关文章
|
1月前
|
消息中间件 存储 运维
王者归位:Kafka控制器组件解析
王者归位:Kafka控制器组件解析
39 0
|
1月前
|
消息中间件 存储 Java
【Kafka】Kafka 组件分析
【4月更文挑战第5天】【Kafka】Kafka 组件分析
|
1月前
|
消息中间件 分布式计算 监控
Python面试:消息队列(RabbitMQ、Kafka)基础知识与应用
【4月更文挑战第18天】本文探讨了Python面试中RabbitMQ与Kafka的常见问题和易错点,包括两者的基础概念、特性对比、Python客户端使用、消息队列应用场景及消息可靠性保证。重点讲解了消息丢失与重复的避免策略,并提供了实战代码示例,帮助读者提升在分布式系统中使用消息队列的能力。
60 2
|
1月前
|
消息中间件 监控 大数据
Kafka消息队列架构与应用场景探讨:面试经验与必备知识点解析
【4月更文挑战第9天】本文详尽探讨了Kafka的消息队列架构,包括Broker、Producer、Consumer、Topic和Partition等核心概念,以及消息生产和消费流程。此外,还介绍了Kafka在微服务、实时数据处理、数据管道和数据仓库等场景的应用。针对面试,文章解析了Kafka与传统消息队列的区别、实际项目挑战及解决方案,并展望了Kafka的未来发展趋势。附带Java Producer和Consumer的代码示例,帮助读者巩固技术理解,为面试做好准备。
45 0
|
6天前
|
消息中间件 监控 Java
Java一分钟之-Kafka:分布式消息队列
【6月更文挑战第11天】Apache Kafka是一款高性能的消息队列,适用于大数据处理和实时流处理,以发布/订阅模型和分布式设计处理大规模数据流。本文介绍了Kafka基础,包括生产者、消费者、主题和代理,以及常见问题:分区选择、偏移量管理和监控不足。通过Java代码示例展示了如何创建生产者和消费者。理解并妥善处理这些问题,结合有效的监控和配置优化,是充分发挥Kafka潜力的关键。
13 0
|
14天前
|
消息中间件 存储 缓存
消息队列之 MetaQ 和 Kafka 哪个更香!
本篇文章首先介绍了MetaQ消息队列,然后介绍了作者对MetaQ和Kafka这两个消息队列的理解。
|
1月前
|
消息中间件 存储 传感器
Kafka消息队列原理及应用详解
【5月更文挑战第6天】Apache Kafka是高性能的分布式消息队列,常用于实时数据管道和流应用。它提供高性能、持久化、分布式和可伸缩的消息处理,支持解耦、异步通信和流量控制。Kafka的核心概念包括Broker、Topic、Partition、Producer、Consumer和Consumer Group。其特点是高吞吐、低延迟、数据持久化、分布式架构和容错性。常见应用包括实时数据流处理、日志收集、消息传递和系统间数据交换。
|
1月前
|
消息中间件 存储 监控
扒开kafka内部组件,咱瞅一瞅都有啥?
以上是 V 哥整理的关于 Kafka 核心组件的介绍,掌握 Kafka 中间件,应用在大型分布式项目中,这对于人个的项目经验积累是浓墨重彩的笔,换句话说,只要是有用到Kafka 的项目,必然是小不了,否则架构师脑袋长泡了。
|
1月前
|
消息中间件 存储 Java
深度探索:使用Apache Kafka构建高效Java消息队列处理系统
【4月更文挑战第17天】本文介绍了在Java环境下使用Apache Kafka进行消息队列处理的方法。Kafka是一个分布式流处理平台,采用发布/订阅模型,支持高效的消息生产和消费。文章详细讲解了Kafka的核心概念,包括主题、生产者和消费者,以及消息的存储和消费流程。此外,还展示了Java代码示例,说明如何创建生产者和消费者。最后,讨论了在高并发场景下的优化策略,如分区、消息压缩和批处理。通过理解和应用这些策略,可以构建高性能的消息系统。
|
1月前
|
消息中间件 大数据 Kafka
Kafka与大数据:消息队列在大数据架构中的关键角色
【4月更文挑战第7天】Apache Kafka是高性能的分布式消息队列,常用于大数据架构,作为实时数据管道汇聚各类数据,并确保数据有序传递。它同时也是数据分发枢纽,支持多消费者订阅,简化系统集成。Kafka作为流处理平台的一部分,允许实时数据处理,满足实时业务需求。在数据湖建设中,它是数据入湖的关键,负责数据汇集与整理。此外,Kafka提供弹性伸缩和容错保障,适用于微服务间的通信,并在数据治理与审计中发挥作用。总之,Kafka是现代大数据体系中的重要基础设施,助力企业高效利用数据。
73 1

热门文章

最新文章

相关产品

  • 云消息队列 Kafka 版