玩转Kafka—Spring&Go整合Kafka

简介: 玩转Kafka—Spring&Go整合Kafka

玩转Kafka—Spring整合Kafka

1 新建Spring Boot项目,增加依赖

<dependencies>
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-web</artifactId>
    </dependency>
    <dependency>
        <groupId>org.springframework.kafka</groupId>
        <artifactId>spring-kafka</artifactId>
    </dependency>
    <dependency>
        <groupId>org.projectlombok</groupId>
        <artifactId>lombok</artifactId>
        <version>1.18.20</version>
    </dependency>
    <dependency>
        <groupId>com.alibaba</groupId>
        <artifactId>fastjson</artifactId>
        <version>1.2.76</version>
    </dependency>
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-test</artifactId>
        <scope>test</scope>
    </dependency>
    <dependency>
        <groupId>org.springframework.kafka</groupId>
        <artifactId>spring-kafka-test</artifactId>
        <scope>test</scope>
    </dependency>
</dependencies>
复制代码

2 项目结构

网络异常,图片无法展示
|


3 代码

3.1 配置文件和Kafka服务器所需配置

application.properties

server.port=8080
#制定kafka代理地址
spring.kafka.bootstrap-servers=8.131.57.161:9092
#消息发送失败重试次数
spring.kafka.producer.retries=0
#每次批量发送消息的数量
spring.kafka.producer.batch-size=16384
#每次批量发送消息的缓冲区大小
spring.kafka.producer.buffer-memory=335554432
# 指定消息key和消息体的编解码方式
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer
# 指定默认消费者group id
spring.kafka.consumer.group-id=user-log-group
spring.kafka.consumer.bootstrap-servers=8.131.57.161:9092
spring.kafka.consumer.auto-offset-reset=earliest
spring.kafka.consumer.enable-auto-commit=true
spring.kafka.consumer.auto-commit-interval=100
# 指定消息key和消息体的编解码方式
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer
复制代码

Kafka服务器所需配置,server.properties文件

# 33行左右 0.0.0.0代表允许外部端口连接
listeners=PLAINTEXT://0.0.0.0:9092  
# 36行左右 ip代表外部代理地址
advertised.listeners=PLAINTEXT://8.131.57.161:9092   
复制代码

3.2 生产者和实体类代码

Student.java

/**
 * @desc: 实体类
 * @author: YanMingXin
 * @create: 2021/11/20-12:43
 **/
@Data
@Accessors(chain = true)
@NoArgsConstructor
@AllArgsConstructor
public class Student implements Serializable {
    private String id;
    private String name;
    private String context;
}
复制代码

StudentService.java

/**
 * @desc: 接口
 * @author: YanMingXin
 * @create: 2021/11/20-12:43
 **/
public interface StudentService {
    void stuSayHello(Student student);
}
复制代码

StudentServiceImpl.java

/**
 * @desc: 接口实现类
 * @author: YanMingXin
 * @create: 2021/11/20-12:43
 **/
@Service
public class StudentServiceImpl implements StudentService {
    @Autowired
    private KafkaTemplate kafkaTemplate;
    /**
     * topic
     */
    private static final String STU_TOPIC = "stu.sayHello";
    @Override
    public void stuSayHello(Student student) {
        Student stu = new Student("1", "zs", "Hello Ls.");
        kafkaTemplate.send(STU_TOPIC, JSON.toJSONString(stu));
    }
}
复制代码

3.3 消费者代码

MyKafkaListener.java

/**
 * @desc: 消费者监听
 * @author: YanMingXin
 * @create: 2021/11/20-12:44
 **/
@Component
public class MyKafkaListener {
    /**
     * topic
     */
    private static final String STU_TOPIC = "stu.sayHello";
    @KafkaListener(topics = {STU_TOPIC})
    public void stuTopicConsumer(ConsumerRecord consumerRecord) {
        Optional kafkaMsg = Optional.ofNullable(consumerRecord.value());
        if (kafkaMsg.isPresent()) {
            Object msg = kafkaMsg.get();
            System.err.println(msg);
        }
    }
}
复制代码

3.4 测试

@SpringBootTest
class SpKafkaApplicationTests {
    @Autowired
    private StudentService studentService;
    @Test
    void contextLoads() throws Exception{
        for (int i = 0; i < 900000; i++) {
            studentService.stuSayHello(new Student());
        }
    }
}
复制代码

玩转Kafka—Golang整合Kafka

几个常见的Go整合Kafka客户端工具:我们本次使用的是Shopify

ps:配置go get代理(类似于Maven配置阿里云镜像)教程:

goproxy.io/zh/docs/get…

1 新建go modules

网络异常,图片无法展示
|


2 项目结构

网络异常,图片无法展示
|


3 生产者代码

KakaProducer.go

package main
import (
   "fmt"
   "github.com/Shopify/sarama"
   "time"
)
//消息生产者
func main() {
   //获取配置类
   config := sarama.NewConfig() //配置类实例(指针类型)
   config.Producer.RequiredAcks = sarama.WaitForAll //代理需要的确认可靠性级别(默认为WaitForLocal)
   config.Producer.Partitioner = sarama.NewRandomPartitioner  //生成用于选择要发送消息的分区的分区(默认为散列消息键)。
   config.Producer.Return.Successes = true //如果启用,成功传递的消息将在成功通道(默认禁用)。
   //获取客户端对象
   client, err := sarama.NewSyncProducer([]string{"8.131.57.161:9092"}, config)
   if err != nil {
      //获取客户端失败
      fmt.Println("producer close, err:", err)
      return
   }
   //延迟执行,类似于栈,等到其他代码都执行完毕后再执行
   defer client.Close()
   //一直循环
   for {
      //获取Message对象
      msg := &sarama.ProducerMessage{}
      //设置topic
      msg.Topic = "go_kafka"
      //设置Message值
      msg.Value = sarama.StringEncoder("this is a good test, my message is good")
      //发送消息,返回pid、片偏移
      pid, offset, err := client.SendMessage(msg)
      //发送失败
      if err != nil {
         fmt.Println("send message failed,", err)
         return
      }
      //打印返回结果
      fmt.Printf("pid:%v offset:%v\n", pid, offset)
      //线程休眠下
      time.Sleep(10 * time.Second)
   }
}
复制代码

4 消费者代码

KafkaConsumer.go

package main
import (
  "fmt"
  "github.com/Shopify/sarama"
  "strings"
  "sync"
  "time"
)
var (
  wg sync.WaitGroup //同步等待组
  //在类型上,它是一个结构体。一个WaitGroup的用途是等待一个goroutine的集合执行完成。
  //主goroutine调用了Add()方法来设置要等待的goroutine的数量。
  //然后,每个goroutine都会执行并且执行完成后调用Done()这个方法。
  //与此同时,可以使用Wait()方法来阻塞,直到所有的goroutine都执行完成。
)
func main() {
  //获取消费者对象 可以设置多个IP地址和端口号,使用逗号进行分割
  consumer, err := sarama.NewConsumer(strings.Split("8.131.57.161:9092", ","), nil)
  //获取失败
  if err != nil {
    fmt.Println("Failed to start consumer: %s", err)
    return
  }
  //对该topic进行监听
  partitionList, err := consumer.Partitions("go_kafka")
  if err != nil {
    fmt.Println("Failed to get the list of partitions: ", err)
    return
  }
  //打印分区
  fmt.Println(partitionList)
  //获取分区和片偏移
  for partition := range partitionList {
    pc, err := consumer.ConsumePartition("go_kafka", int32(partition), sarama.OffsetNewest)
    if err != nil {
      fmt.Printf("Failed to start consumer for partition %d: %s\n", partition, err)
      return
    }
    //延迟执行
    defer pc.AsyncClose()
    //启动多线程
    go func(pc sarama.PartitionConsumer) {
      wg.Add(1)
      //获得message的信息
      for msg := range pc.Messages() {
        fmt.Printf("Partition:%d, Offset:%d, Key:%s, Value:%s", msg.Partition, msg.Offset, string(msg.Key), string(msg.Value))
        fmt.Println()
      }
      wg.Done()
    }(pc)
  }
  //线程休眠
  time.Sleep(10 * time.Second)
  wg.Wait()
  consumer.Close()
}
复制代码

5 测试

网络异常,图片无法展示
|



网络异常,图片无法展示
|


参考文章:www.cnblogs.com/angelyan/p/…


相关文章
|
2天前
|
消息中间件 Java Kafka
Spring Boot与Apache Kafka的深度集成
Spring Boot与Apache Kafka的深度集成
|
2天前
|
消息中间件 Java Kafka
Spring Boot与Kafka的集成应用
Spring Boot与Kafka的集成应用
|
2天前
|
消息中间件 Java Kafka
使用Spring Boot和Kafka实现高效消息队列
使用Spring Boot和Kafka实现高效消息队列
|
2天前
|
消息中间件 Java Kafka
Spring Boot与Apache Kafka集成的深度指南
Spring Boot与Apache Kafka集成的深度指南
|
2天前
|
消息中间件 Java Kafka
教程:Spring Boot集成Kafka Streams流处理框架
教程:Spring Boot集成Kafka Streams流处理框架
|
14天前
|
消息中间件 存储 Kafka
实时计算 Flink版产品使用问题之通过flink同步kafka数据进到doris,decimal数值类型的在kafka是正常显示数值,但是同步到doris表之后数据就变成了整数,该如何处理
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
14天前
|
消息中间件 存储 Kafka
实时计算 Flink版产品使用问题之 从Kafka读取数据,并与两个仅在任务启动时读取一次的维度表进行内连接(inner join)时,如果没有匹配到的数据会被直接丢弃还是会被存储在内存中
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
13天前
|
消息中间件 Java 关系型数据库
实时计算 Flink版操作报错合集之从 PostgreSQL 读取数据并写入 Kafka 时,遇到 "initial slot snapshot too large" 的错误,该怎么办
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
629 0
|
4天前
|
Java
使用kafka-clients操作数据(java)
使用kafka-clients操作数据(java)
14 6
|
14天前
|
消息中间件 SQL Kafka
实时计算 Flink版产品使用问题之如何实现OSS数据到Kafka的实时同步
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。