Kubnernetes 集群部署 Zipkin+Kafka+ElasticSearch 实现链路追踪

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
日志服务 SLS,月写入数据量 50GB 1个月
应用实时监控服务-可观测链路OpenTelemetry版,每月50GB免费额度
简介: Kubnernetes 集群部署 Zipkin+Kafka+ElasticSearch 实现链路追踪

方案设计

SpringCloud 微服务 使用 Sleuth+ Zipkin 的应用架构实现链路追踪的逻辑图如下:

image.png

从架构图中可以看到:我们构建了一个服务网关,通过 API 网关调用具体的微服务,所有的服务都注册到 Nacos 上;当客户端的请求到来之时,网关作为服务端的门户,会根据配置的规则,从 Nacos 中获取对应服务的信息,并将请求反向代理到指定的服务实例。

我们这里将链路日志推送到 Kafka,然后启动 Zipkin Server 聚合日志,监听 Kafka ,如果有新的消息则进行拉取存入到 ElasticSeach,最后再用 Zipkin UI 展示链路过程。最后,我们再来梳理下整个系统链路追踪改造部分,它大概分为五大部分:

  1. 在服务中加入 Spring Cloud Sleuth 生成链路追踪日志;
  2. 使用 Brave 库,集成 Zipkin 客户端埋点。使用 instrumentation 插件,实现对 SpringMVC、MySQL 等组件实现链路追踪的功能;
  3. 将链路日志推送到 Kafka;
  4. 启动 Zipkin Server 聚合日志,监听 Kafka ,如果有新的消息则进行拉取存入到 ElasticSeach;
  5. 最后使用 Zipkin UI 展示链路过程、使用 Kibana 查询链路数据。

环境准备

在实际生产环境中,从经验性角度,前置 kafka,一方面作为队列和缓冲,另一方面提供了统一的入口渠道。需要准备下面组件:

  • Kafka: 需要拥有在 Kubernetes 环境中能访问的 Kafka 集群。
  • ElasticSearch: 需要拥有在 Kubernetes 环境中能访问的 ElasticSearch 集群。
  • Zipkin: 在 Kubernetes 中部署 Zipkin,后面将演示这个部署的过程。
  • SpringCloud 服务: 需要两个 SpringCloud 服务,通过 Feign 相互调用接口产生链路日志便于测试,后面将演示如何写测试项目部署到 Kubernetes 中。

在 Kubernetes 中完成链路追踪流程的方案,需要依赖上面各个组件。

部署 Zipkin Server

创建 zipkin-server.yaml 资源文件

apiVersion: v1
kind: Service
metadata:
  name: zipkin
  labels:
    app: zipkin
spec:
  type: NodePort        #指定为 NodePort 方式暴露出口
  ports:
    - name: server
      port: 9411
      targetPort: 9411
      nodePort: 30190   #指定 Nodeport 端口
      protocol: TCP
  selector:
    app: zipkin
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: zipkin
  labels:
    name: zipkin
spec:
  replicas: 1
  selector:
    matchLabels:
      app: zipkin
  template:
    metadata:
      labels:
        app: zipkin
    spec:
      containers:
        - name: zipkin
          image: openzipkin/zipkin
          ports:
            - containerPort: 9411
          env:
            - name: JAVA_OPTS
              value: "
                  -Xms512m -Xmx512m
                  -Dlogging.level.zipkin=DEBUG
                  -Dlogging.level.zipkin2=DEBUG
                  -Duser.timezone=Asia/Shanghai
                  "
            - name: STORAGE_TYPE
              value: "elasticsearch"   #设置数据存储在ES中
            - name: ES_HOSTS
              value: "elasticsearch-client:9200"   #ES地址
            - name: ES_INDEX           #设置ES中存储的zipkin索引名称
              value: "zipkin"
            - name: ES_INDEX_REPLICAS  #ES索引副本数
              value: "1"
            - name: ES_INDEX_SHARDS    #ES分片数量
              value: "3"
            - name: ES_USERNAME       #如果ES启用x-pack,需要设置用户名、密码
              value: "elastic"
            - name: ES_PASSWORD
              value: "admin@123"
            - name: KAFKA_BOOTSTRAP_SERVERS #Kafka 地址
              value: "kafka:9092"
            - name: KAFKA_TOPIC             #Kafka Topic名称,默认为"zipkin"
              value: "zipkin"
            - name: KAFKA_GROUP_ID          #Kafka 组名,默认为"zipkin"
              value: "zipkin"
            - name: KAFKA_STREAMS           #消耗Topic的线程数,默认为1
              value: "1"
          resources:
            limits:
              cpu: 1000m
              memory: 512Mi
            requests:
              cpu: 500m
              memory: 256Mi

关于 Zipkin Server 配置参数,可以参考:https://github.com/openzipkin/zipkin/tree/master/zipkin-server

创建资源:

kubectl apply -f zipkin-server.yaml

部署 Zipkin-Dependencies

zipkin-dependencies 是一个聚合数据依赖关系的服务,这里启动服务后它会自动从 ElasticSearch 中获取索引,分析依赖关系然后再以 zipkin索引名称-dependency-yyyy-mm-dd 命名创建新索引存入 ElasticSearch。

并且这个服务内置 Crond 定时任务,默认每隔一小时会执行分析 ElasticSearch 中索引关系的任务(在 Kubernetes 中将其设置一个 Job 任务来使用也是可以的,因为它每次启动时候都会先进行分析依赖数据,当然也可以用容器内部的 Crond 来执行定时任务)。

官网地址:https://github.com/openzipkin/zipkin-dependencies

注意:下面 yaml 中一定要设置 command 命令来启用 crond 定时任务,否则之后执行一次分析依赖关系任务后程序自动关闭。

创建资源文件 zipkin-dependencies.yaml

apiVersion: batch/v1beta1
kind: CronJob
metadata:
  name: zipkin-dependencies
spec:
  schedule: "*/5 * * * *"
  jobTemplate:
    spec:
      ttlSecondsAfterFinished: 86400
      template:
        spec:
          containers:
            - name: zipkin
              image: openzipkin/zipkin-dependencies:2.6
              imagePullPolicy: IfNotPresent
              env:
                - name: JAVA_OPTS
                  value: "-Xms512m -Xmx512m -Duser.timezone=Asia/Shanghai"
                - name: STORAGE_TYPE
                  value: elasticsearch
                - name: ES_HOSTS
                  value: elasticsearch-client:9200
                - name: ES_INDEX
                  value: zipkin
                - name: ES_INDEX_REPLICAS
                  value: "1"
                - name: ES_INDEX_SHARDS
                  value: "3"
                - name: ES_USERNAME
                  value: elastic
                - name: ES_PASSWORD
                  value: admin@123
                - name: KAFKA_BOOTSTRAP_SERVERS
                  value: kafka:9092
                - name: KAFKA_TOPIC
                  value: zipkin
                - name: KAFKA_GROUP_ID
                  value: zipkin
                - name: KAFKA_STREAMS
                  value: "1"
              resources:
                limits:
                  cpu: 1000m
                  memory: 512Mi
                requests:
                  cpu: 500m
                  memory: 256Mi
          restartPolicy: OnFailure

部署资源:

kubectl apply -f zipkin-dependencies.yaml

微服务应用配置

第一步,我们需要在各个服务引入 Kafka 依赖。

 <!-- 引入 Spring Cloud Stream Kafka-->
        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-stream-kafka</artifactId>
        </dependency>

第二步,修改 bootstrap.yml 配置文件,增加 Kafka 系列配置。

spring:
  zipkin: #设置zipkin服务端地址
    sender:
      type: kafka  #指定发送到kafka,还可以指定Rabbit、Web
    service:
      name: ${spring.application.name} #Zipkin链路日志中收集的服务名称
    kafka:
      topic: zipkin
  kafka:
    bootstrap-servers: kafka:9092 #Kubernetes中Kakfa地址,当然也可以指定Kubernetes集群外的Kafk

测试查看链路信息

部署完成后就能通过node IP + NodePort 端口访问 Zipkin UI。可以看到 Zipkin 页面。

image.png

最后进行测试,首先需要调用服务接口,让其通过 Feign 调用,完成后再次打开 Zipkin UI 界面,点击进入 Dependency Links,然后按下分析按钮后出现链路依赖关系图。

image.png

源码地址:

目录
相关文章
|
7月前
|
Dubbo Java 应用服务中间件
微服务框架(十六)Spring Boot及Dubbo zipkin 链路追踪组件埋点
此系列文章将会描述Java框架Spring Boot、服务治理框架Dubbo、应用容器引擎Docker,及使用Spring Boot集成Dubbo、Mybatis等开源框架,其中穿插着Spring Boot中日志切面等技术的实现,然后通过gitlab-CI以持续集成为Docker镜像。 本文第一部分为调用链、OpenTracing、Zipkin和Jeager的简述;第二部分为Spring Boot及Dubbo zipkin 链路追踪组件埋点
|
1月前
|
存储 NoSQL 关系型数据库
微服务Zipkin链路追踪原理,图解版,一文吃透!
本文重点讲解Zipkin链路追踪的原理与使用,帮助解决微服务架构下的服务响应延迟等问题,提升系统性能与稳定性。关注【mikechen的互联网架构】,10年+BAT架构经验倾囊相授。
微服务Zipkin链路追踪原理,图解版,一文吃透!
|
4月前
|
数据可视化 Java Nacos
Sleuth+Zipkin 实现 SpringCloud 链路追踪
【8月更文挑战第9天】Sleuth+Zipkin 实现 SpringCloud 链路追踪
128 1
Sleuth+Zipkin 实现 SpringCloud 链路追踪
|
4月前
|
消息中间件 监控 Kafka
Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
【8月更文挑战第13天】Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
241 3
|
5月前
|
存储 监控 Java
zipkin 与 sleuth 实现链路追踪
zipkin 与 sleuth 实现链路追踪
80 0
|
6月前
|
存储 消息中间件 Java
【分布式链路追踪技术】sleuth+zipkin
【分布式链路追踪技术】sleuth+zipkin
82 2
|
数据可视化 Java Docker
Sleuth微服务链路追踪整合ELK和zipkin
Sleuth微服务链路追踪整合ELK和zipkin
312 0
|
算法 数据可视化 Java
微服务下的分布式链路追踪系统Sleuth+Zipkin
微服务下的分布式链路追踪系统Sleuth+Zipkin
|
存储 监控 NoSQL
一文打通Sleuth+Zipkin 服务链路追踪
一文打通Sleuth+Zipkin 服务链路追踪
|
Prometheus 监控 Cloud Native
Go微服务架构实战 下篇:1. gRPC + Opentracing + Zipkin实现分布式链路追踪系统
Go微服务架构实战 下篇:1. gRPC + Opentracing + Zipkin实现分布式链路追踪系统
下一篇
DataWorks