【Kafka】kafka 如何不消费重复数据?

简介: 【4月更文挑战第7天】【Kafka】kafka 如何不消费重复数据?

image.png

在Kafka中确保不消费重复数据,特别是在像扣款这样的关键业务场景中,是非常重要的。为了实现这一目标,我们可以采取以下几种策略:

1. 消息幂等性

Kafka提供了一种名为消息幂等性的特性,可以确保生产者发送的消息不会被重复处理。当启用消息幂等性时,每条消息都会被赋予一个唯一的ID(Producer ID + Sequence Number),Kafka会使用这个ID来识别和过滤重复的消息。即使生产者发送了重复的消息,Kafka也会确保消费者不会消费到重复的数据。

示例代码:

import org.apache.kafka.clients.producer.*;

import java.util.Properties;

public class IdempotentProducer {
   
   
    public static void main(String[] args) {
   
   
        Properties props = new Properties();
        props.put("bootstrap.servers", "localhost:9092");
        props.put("acks", "all");
        props.put("retries", Integer.MAX_VALUE); // 设置重试次数为最大值
        props.put("enable.idempotence", "true"); // 启用幂等性
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

        KafkaProducer<String, String> producer = new KafkaProducer<>(props);

        try {
   
   
            ProducerRecord<String, String> record = new ProducerRecord<>("test-topic", "key", "value");
            producer.send(record, new Callback() {
   
   
                @Override
                public void onCompletion(RecordMetadata metadata, Exception exception) {
   
   
                    if (exception != null) {
   
   
                        exception.printStackTrace();
                    } else {
   
   
                        System.out.println("Produced record with offset " + metadata.offset());
                    }
                }
            });
        } finally {
   
   
            producer.close();
        }
    }
}

在上述代码中,我们创建了一个启用了消息幂等性的生产者。即使我们多次发送相同的消息,Kafka也会确保这些消息只会被处理一次。

2. 消费者端去重

除了在生产者端保证消息的幂等性外,还可以在消费者端进行去重操作。消费者可以维护一个已处理消息的ID列表,每次消费消息时,都先检查该列表,以确保不会处理重复的消息。

示例代码:

import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;

import java.time.Duration;
import java.util.Collections;
import java.util.HashSet;
import java.util.Properties;
import java.util.Set;

public class DeduplicationConsumer {
   
   
    private static final Set<String> processedMessages = new HashSet<>();

    public static void main(String[] args) {
   
   
        Properties props = new Properties();
        props.put("bootstrap.servers", "localhost:9092");
        props.put("group.id", "test-group");
        props.put("enable.auto.commit", "false"); // 禁止自动提交位移
        props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

        KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);
        consumer.subscribe(Collections.singletonList("test-topic"));

        try {
   
   
            while (true) {
   
   
                ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));
                for (ConsumerRecord<String, String> record : records) {
   
   
                    String messageId = record.key();
                    if (!processedMessages.contains(messageId)) {
   
   
                        // 处理消息
                        System.out.printf("partition = %d, offset = %d, key = %s, value = %s%n",
                                record.partition(), record.offset(), record.key(), record.value());

                        // 标记消息为已处理
                        processedMessages.add(messageId);

                        // 手动提交位移
                        consumer.commitSync();
                    } else {
   
   
                        System.out.println("Skipping duplicate message: " + messageId);
                    }
                }
            }
        } finally {
   
   
            consumer.close();
        }
    }
}

在上述代码中,我们创建了一个消费者,维护了一个已处理消息的ID列表 processedMessages。每次消费消息时,都会检查这个列表,以确保不会处理重复的消息。

3. Exactly-Once语义

Kafka还提供了一种名为Exactly-Once语义的特性,可以确保生产者发送的消息不会被重复处理,并且消费者在处理消息时也不会丢失消息或产生重复数据。这是通过Kafka事务API来实现的,允许生产者在发送消息时进行事务性操作,以确保消息的完整性和一致性。

示例代码:

import org.apache.kafka.clients.producer.*;
import org.apache.kafka.common.KafkaException;

import java.util.Properties;

public class TransactionalProducer {
   
   
    public static void main(String[] args) {
   
   
        Properties props = new Properties();
        props.put("bootstrap.servers", "localhost:9092");
        props.put("transactional.id", "my-transactional-id");
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

        KafkaProducer<String, String> producer = new KafkaProducer<>(props);
        producer.initTransactions();

        try {
   
   
            producer.beginTransaction();

            ProducerRecord<String, String> record = new ProducerRecord<>("test-topic", "key", "value");
            producer.send(record, new Callback() {
   
   
                @Override
                public void onCompletion(RecordMetadata metadata, Exception exception) {
   
   
                    if (exception != null) {
   
   
                        try {
   
   
                            producer.abortTransaction();
                        } catch (KafkaException e) {
   
   
                            e.printStackTrace();
                        }
                        exception.printStackTrace();
                    } else {
   
   
                        producer.commitTransaction();
                        System.out.println("Produced record with offset " + metadata.offset());
                    }
                }
            });
        } catch (ProducerFencedException | KafkaException e) {
   
   
            e.printStackTrace();
        } finally {
   
   
            producer.close();
        }
    }
}

在上述代码中,我们创建了一个启用了事务性的生产者,并使用 beginTransaction()commitTransaction() 方法来确保消息的Exactly-Once语义。

相关文章
|
9月前
|
消息中间件 存储 缓存
kafka 的数据是放在磁盘上还是内存上,为什么速度会快?
Kafka的数据存储机制通过将数据同时写入磁盘和内存,确保高吞吐量与持久性。其日志文件按主题和分区组织,使用预写日志(WAL)保证数据持久性,并借助操作系统的页缓存加速读取。Kafka采用顺序I/O、零拷贝技术和批量处理优化性能,支持分区分段以实现并行处理。示例代码展示了如何使用KafkaProducer发送消息。
|
12月前
|
消息中间件 存储 运维
为什么说Kafka还不是完美的实时数据通道
【10月更文挑战第19天】Kafka 虽然作为数据通道被广泛应用,但在实时性、数据一致性、性能及管理方面存在局限。数据延迟受消息堆积和分区再平衡影响;数据一致性难以达到恰好一次;性能瓶颈在于网络和磁盘I/O;管理复杂性涉及集群配置与版本升级。
394 1
|
12月前
|
消息中间件 Java Kafka
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
271 1
|
消息中间件 Java Kafka
Kafka不重复消费的终极秘籍!解锁幂等性、偏移量、去重神器,让你的数据流稳如老狗,告别数据混乱时代!
【8月更文挑战第24天】Apache Kafka作为一款领先的分布式流处理平台,凭借其卓越的高吞吐量与低延迟特性,在大数据处理领域中占据重要地位。然而,在利用Kafka进行数据处理时,如何有效避免重复消费成为众多开发者关注的焦点。本文深入探讨了Kafka中可能出现重复消费的原因,并提出了四种实用的解决方案:利用消息偏移量手动控制消费进度;启用幂等性生产者确保消息不被重复发送;在消费者端实施去重机制;以及借助Kafka的事务支持实现精确的一次性处理。通过这些方法,开发者可根据不同的应用场景灵活选择最适合的策略,从而保障数据处理的准确性和一致性。
931 9
|
消息中间件 监控 Kafka
实时计算 Flink版产品使用问题之处理Kafka数据顺序时,怎么确保事件的顺序性
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
消息中间件 负载均衡 Java
"Kafka核心机制揭秘:深入探索Producer的高效数据发布策略与Java实战应用"
【8月更文挑战第10天】Apache Kafka作为顶级分布式流处理平台,其Producer组件是数据高效发布的引擎。Producer遵循高吞吐、低延迟等设计原则,采用分批发送、异步处理及数据压缩等技术提升性能。它支持按消息键值分区,确保数据有序并实现负载均衡;提供多种确认机制保证可靠性;具备失败重试功能确保消息最终送达。Java示例展示了基本配置与消息发送流程,体现了Producer的强大与灵活性。
192 3
|
消息中间件 存储 Kafka
kafka 在 zookeeper 中保存的数据内容
kafka 在 zookeeper 中保存的数据内容
176 3
|
消息中间件 存储 Kafka
微服务分布问题之Kafka分区的副本和分布如何解决
微服务分布问题之Kafka分区的副本和分布如何解决
126 5
|
消息中间件 负载均衡 Kafka
微服务数据问题之Kafka实现高可用如何解决
微服务数据问题之Kafka实现高可用如何解决
108 1
|
消息中间件 存储 负载均衡
微服务数据问题之Kafka作为元数据节点如何解决
微服务数据问题之Kafka作为元数据节点如何解决
139 1