kafka消息丢失的场景分析

简介: kafka消息丢失的场景分析

 目录

kafka角色介绍

kafka消息丢失的场景分析

场景一:Producer端

场景二: Broker端

场景三:Consumer端



image.gif编辑

今天我们深度剖析一下kafka丢失消息的原因和怎么预防其丢失数据。

kafka角色介绍

kafka是一个分布式架构的消息队列,其主要由三部分组成 Producer、Broker、Consumer三部分组成。

Producer:消息的生产者

Broker: 消息的中间人(将消息进行同步并持久化数据)。

Consumer:消息的消费者

kafka消息丢失的场景分析

场景一:Producer端

producer负责生产消息,生产的消息要发送给Broker端,怎么确定消息有没有发出呢?

在kafka的设计中Producer有ACK 机制,我来解释这个机制

request.required.acks有三个值 0,1,-1/all

    • acks = 0:由于发送后就自认为发送成功,这时如果发生网络抖动, Producer 端并不会校验 ACK 自然也就丢了,且无法重试。
    • acks = 1:消息发送 Leader Parition 接收成功就表示发送成功,这时只要 Leader Partition 不 Crash 掉,就可以保证 Leader Partition 不丢数据,但是如果 Leader Partition 异常 Crash 掉了, Follower Partition 还未同步完数据且没有 ACK,这时就会丢数据。
    • acks = -1 或者 all: 消息发送需要等待 ISR 中 Leader Partition 和 所有的 Follower Partition 都确认收到消息才算发送成功, 可靠性最高, 但也不能保证不丢数据,比如当 ISR 中只剩下 Leader Partition 了, 这样就变成 acks = 1 的情况了。

    场景二: Broker端

    Kafka Broker 集群接收到数据后会将数据进行持久化存储到磁盘,为了提高吞吐量和性能,采用的是「异步批量刷盘的策略」,也就是说按照一定的消息量和间隔时间进行刷盘。首先会将数据存储到 「PageCache」 中,至于什么时候将 Cache 中的数据刷盘是由「操作系统」根据自己的策略决定或者调用 fsync 命令进行强制刷盘,如果此时 Broker 宕机 Crash 掉,且选举了一个落后 Leader Partition 很多的 Follower Partition 成为新的 Leader Partition,那么落后的消息数据就会丢失。

    场景三:Consumer端

    消息消费流程可以分为两个阶段:

      • 获取元数据并从 Kafka Broker 集群拉取数据。
      • 处理消息,并标记消息已经被消费,提交 Offset 记录。
        • 可能使用的「自动提交 Offset 方式
          • 拉取消息后「先提交 Offset,后处理消息」,如果此时处理消息的时候异常宕机,由于 Offset 已经提交了, 待 Consumer 重启后,会从之前已提交的 Offset 下一个位置重新开始消费, 之前未处理完成的消息不会被再次处理,对于该 Consumer 来说消息就丢失了。
          • 拉取消息后「先处理消息,在进行提交 Offset」, 如果此时在提交之前发生异常宕机,由于没有提交成功 Offset, 待下次 Consumer 重启后还会从上次的 Offset 重新拉取消息,不会出现消息丢失的情况, 但是会出现重复消费的情况,这里只能业务自己保证幂等性。


          目录
          相关文章
          |
          1月前
          |
          存储 消息中间件 大数据
          大数据-69 Kafka 高级特性 物理存储 实机查看分析 日志存储一篇详解
          大数据-69 Kafka 高级特性 物理存储 实机查看分析 日志存储一篇详解
          35 4
          |
          1月前
          |
          消息中间件 druid 大数据
          大数据-153 Apache Druid 案例 从 Kafka 中加载数据并分析(二)
          大数据-153 Apache Druid 案例 从 Kafka 中加载数据并分析(二)
          32 2
          |
          1月前
          |
          消息中间件 分布式计算 druid
          大数据-153 Apache Druid 案例 从 Kafka 中加载数据并分析(一)
          大数据-153 Apache Druid 案例 从 Kafka 中加载数据并分析(一)
          52 1
          |
          1月前
          |
          消息中间件 druid Kafka
          从Apache Flink到Kafka再到Druid的实时数据传输,用于分析/决策
          从Apache Flink到Kafka再到Druid的实时数据传输,用于分析/决策
          72 0
          |
          2月前
          |
          数据采集 消息中间件 存储
          实时数据处理的终极武器:Databricks与Confluent联手打造数据采集与分析的全新篇章!
          【9月更文挑战第3天】本文介绍如何结合Databricks与Confluent实现高效实时数据处理。Databricks基于Apache Spark提供简便的大数据处理方式,Confluent则以Kafka为核心,助力实时数据传输。文章详细阐述了利用Kafka进行数据采集,通过Delta Lake存储并导入数据,最终在Databricks上完成数据分析的全流程,展示了一套完整的实时数据处理方案。
          69 3
          |
          3月前
          |
          消息中间件 存储 Java
          场景题:如何提升Kafka效率?
          场景题:如何提升Kafka效率?
          65 0
          场景题:如何提升Kafka效率?
          |
          3月前
          |
          分布式计算 搜索推荐 物联网
          大数据及AI典型场景实践问题之通过KafKa+OTS+MaxCompute完成物联网系统技术重构如何解决
          大数据及AI典型场景实践问题之通过KafKa+OTS+MaxCompute完成物联网系统技术重构如何解决
          |
          3月前
          |
          消息中间件 负载均衡 Kafka
          Kafka 实现负载均衡与故障转移:深入分析 Kafka 的架构特点与实践
          【8月更文挑战第24天】Apache Kafka是一款专为实时数据处理和流传输设计的高性能消息系统。其核心设计注重高吞吐量、低延迟与可扩展性,并具备出色的容错能力。Kafka采用分布式日志概念,通过数据分区及副本机制确保数据可靠性和持久性。系统包含Producer(消息生产者)、Consumer(消息消费者)和Broker(消息服务器)三大组件。Kafka利用独特的分区机制实现负载均衡,每个Topic可以被划分为多个分区,每个分区可以被复制到多个Broker上,确保数据的高可用性和可靠性。
          69 2
          |
          3月前
          |
          消息中间件 安全 Kafka
          "深入实践Kafka多线程Consumer:案例分析、实现方式、优缺点及高效数据处理策略"
          【8月更文挑战第10天】Apache Kafka是一款高性能的分布式流处理平台,以高吞吐量和可扩展性著称。为提升数据处理效率,常采用多线程消费Kafka数据。本文通过电商订单系统的案例,探讨了多线程Consumer的实现方法及其利弊,并提供示例代码。案例展示了如何通过并行处理加快订单数据的处理速度,确保数据正确性和顺序性的同时最大化资源利用。多线程Consumer有两种主要模式:每线程一个实例和单实例多worker线程。前者简单易行但资源消耗较大;后者虽能解耦消息获取与处理,却增加了系统复杂度。通过合理设计,多线程Consumer能够有效支持高并发数据处理需求。
          166 4
          |
          3月前
          |
          数据采集 消息中间件 存储
          实时数据处理的终极武器:Databricks与Confluent联手打造数据采集与分析的全新篇章!
          【8月更文挑战第9天】利用Databricks与Confluent打造实时数据处理方案。Confluent的Kafka负责数据采集,通过主题接收IoT及应用数据;Databricks运用Structured Streaming处理Kafka数据,并以Delta Lake存储,支持ACID事务。这套组合实现了从数据采集、存储到分析的全流程自动化,满足企业对大数据实时处理的需求。
          45 3