在Kubernetes中从0打造可观测性

本文涉及的产品
可观测监控 Prometheus 版,每月50GB免费额度
日志服务 SLS,月写入数据量 50GB 1个月
可观测可视化 Grafana 版,10个用户账号 1个月
简介: 在Kubernetes中从0打造可观测性

!! 原文:https://k8staz.com/setting-up-open-source-observability-stack-on-kubernetes-from-scratch#heading-testing-endpoints

作者:Staz

在这篇文章中,我们将在Kubernetes中使用Grafana、Prometheus、Loki、Tempo、OpenTelemetry来搭建可观测性平台。其中Grafana作为操作面板,Prometheus、Loki、Tempo作为数据源,分别用来获取指标、日志以及跟踪数据。同时,我们还将使用Exemplars将trace_id与Java指标相关联,使用OpenTelemetry对应用进行检测。

在开始之前,先简单介绍一下这些开源工具。

  1. OpenTelemetry:它是CNCF的 开源产品,通过使用代理来收集指标、日志和链路,然后将它们发送给其他工具,它支持多种语言集成,并且有很大的仪表功能。
  2. Prometheus:CNCF的毕业产品,是目前主流的监控工具之一。
  3. Examplars:它可以将trace_id和metrics联系起来,可以帮助我们通过指标获取到具体日志以及链路状况,通常和Prometheus配合工作。
  4. Promtail:日志收集工具,将日志发送到Loki。
  5. Loki:收集并处理日志,并且支持通过LogQL来查询日志,其语法和PromQL类似
  6. Tempo:接收OpenTelemetry的数据,并且可以通过Jaeger将其可视化
  7. Grafana:支持多种数据源的可视化面板

image.png

准备后端应用程序

在这个示例中,我们将使用java spring boot项目作为例子。

首先,我们使用start.spring.io创建一个java spring boot项目,它可以帮我们快速创建一个Java项目,并且支持在项目中添加依然和其他配置。其中:

  • 使用Gradle作为构建自动化工具
  • 使用2.7版本的Spring Boot
  • 使用JAR作为包构建格式
  • 使用JDK11

当完成配置并生成之后,就可以将其压缩包下载下来并用IDE打开。

我们先配置build.gradle,确保所有依赖是没问题的。

plugins {
    id 'org.springframework.boot' version '2.7.0'
    id 'io.spring.dependency-management' version '1.0.11.RELEASE'
    id 'java'
}
repositories {
  maven {
    url = uri('https://repo.spring.io/libs-snapshot')
  }
    mavenCentral()
}
dependencyManagement {
  imports {
    mavenBom 'io.micrometer:micrometer-bom:1.9.0-SNAPSHOT'
  }
}
dependencies {
  implementation 'org.springframework.boot:spring-boot-starter-actuator'
  implementation 'io.micrometer:micrometer-registry-prometheus:1.9.0'
  implementation 'org.springframework.boot:spring-boot-starter-web'
  implementation 'io.opentelemetry:opentelemetry-api:1.12.0'
}
tasks.named('test') {
    useJUnitPlatform()
}
group = 'com.staz'
version = '0.0.1-SNAPSHOT'
sourceCompatibility = '11'

然后我们将创建一个控制器类Controller.java,有两个端点:/fail/success。该文件必须位于${project}/src/main/java/com/staz/observability/的路径下。

package com.staz.observability;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.PostMapping;
import org.springframework.web.bind.annotation.RestController;
@RestController
public class Controller {
    @PostMapping("/fail")
    public String fail() {
        return "Fail!";
    }
    @GetMapping("/success")
    public String success() {
        return "Success!";
    }
}

为了将metrics和trace_id关联起来,我们需要在${project}/src/main/java/com/staz/observability/路径下创建一个公共配置类PrometheusExemplarConfiguration.java

package com.staz.observability;
import io.micrometer.core.instrument.Clock;
import io.micrometer.prometheus.PrometheusConfig;
import io.micrometer.prometheus.PrometheusMeterRegistry;
import io.opentelemetry.api.trace.Span;
import io.prometheus.client.CollectorRegistry;
import io.prometheus.client.exemplars.DefaultExemplarSampler;
import io.prometheus.client.exemplars.tracer.otel_agent.
       OpenTelemetryAgentSpanContextSupplier;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
@Configuration
public class PrometheusExemplarConfiguration {
    @Bean
    public PrometheusMeterRegistry prometheusMeterRegistryWithExemplar
    (PrometheusConfig prometheusConfig, CollectorRegistry collectorRegistry, 
    Clock clock) {
        return new PrometheusMeterRegistry(prometheusConfig, collectorRegistry, 
        clock, new DefaultExemplarSampler(new OpenTelemetryAgentSpanContextSupplier() {
                    @Override
                    public String getTraceId() {
                        if (!Span.current().getSpanContext().isSampled()) {
                            return null;
                        }
                        return super.getTraceId();
                    }
                })
        );
    }
}

最后,编辑${project}/src/main/resources/目录下的配置文件application.yml:

# Enable Actuator endpoints including Prometheus
management:
  endpoints:
    web:
      exposure:
        include: health, info, prometheus
  metrics:
    # Exemplar metrics
    distribution:
      percentiles-histogram:
        http.server.requests: true
      minimum-expected-value:
        http.server.requests: 5ms
      maximum-expected-value:
        http.server.requests: 1000ms
# Add trace_id in log. OpenTelemetry set this value using logger-mdc.
# https://github.com/open-telemetry/opentelemetry-java-instrumentation/blob/main/docs/logger-mdc-instrumentation.md
logging:
  pattern:
    level: '%prefix(%mdc{trace_id:-0}) %5p'

如果想要在本地运行项目,需要下载OpenTelemetry Agent,该项目中使用的版本是1.12.1。

准备工作做完过后,我们在本地来测试一下。

首先,使用gradle build -x test编译项目。

然后使用以下命令启动:

java -javaagent:opentelemetry-javaagent.jar -Dspring.config.location=src/main/resources/application.yml -jar build/libs/observability-0.0.1-SNAPSHOT.jar

image.png

然后可以使用htttp://localhost:8080/failhtttp://localhost:8080/success进行访问测试。

再来使用localhost:8080/actuator/prometheus来验证Prometheus指标是否有效。

最后,验证metrice和trace_id的关联情况。

curl -H 'Accept: application/openmetrics-text; version=1.0.0; charset=utf-8' http://localhost:8080/actuator/prometheus | grep trace_id

image.png

我们的Spring Boot应用程序已经准备好了,现在我们需要安装观察性工具。在此之前,我们会在本地创建一个K3s集群,所有的软件都将部署到里面。

容器化应用程序

首先,在项目根目录创建一个Dockerfile,内容如下:

# Download OpenTelemetryAgent
FROM curlimages/curl:7.81.0 AS OTEL_AGENT
ARG OTEL_AGENT_VERSION="1.12.1"
RUN curl --silent --fail -L "https://github.com/open-telemetry/opentelemetry-java-instrumentation/releases/download/v${OTEL_AGENT_VERSION}/opentelemetry-javaagent.jar" \
    -o "/tmp/opentelemetry-javaagent.jar"
# Build .JAR file
FROM gradle:7.1.1-jdk11-hotspot AS BUILD_IMAGE
COPY --chown=gradle:gradle . /home/gradle/src
WORKDIR /home/gradle/src
RUN gradle build -x test --no-daemon 
# Final image copying OTEL Agent and .JAR File
FROM gradle:7.1.1-jdk11-hotspot
ENV TIME_ZONE America/Lima
ENV TZ=$TIME_ZONE
ENV JAVA_OPTS "-Dspring.config.location=src/main/resources/application.yml"
COPY --from=OTEL_AGENT /tmp/opentelemetry-javaagent.jar /otel-javaagent.jar
COPY --from=BUILD_IMAGE home/gradle/src/build/libs/*.jar app.jar
ENTRYPOINT exec java -javaagent:/otel-javaagent.jar -jar app.jar

使用以下命令构建并测试:

$ docker build --no-cache -t otel-springboot-prometheus .
$ docker run -it -p 8080:8080 otel-springboot-prometheus

待容器启动过后,使用http://localhost:8080/success验证是否可以正常使用。

创建单节点集群

首先,使用multipass创建一个Ubuntu实例:

$ multipass launch --name demo --mem 4G --disk 20G

image.png

然后登录实例:

$ multipass shell demo

image.png

可以通过sudo su命令验证是否正确进去Ubuntu实例。

其次,使用以下命令安装K3s:

$ curl -sfL https://get.k3s.io | sh -

集群创建完成后,将KUBECONFIG添加到环境变量。

$ export KUBECONFIG=/etc/rancher/k3s/k3s.yaml

检查集群是否正常运行。

$ kubectl cluster-info

image.png

然后,安装Helm,后续都将使用它来安装应用软件。

$ snap install helm --classic

将K3s的KUBECONFIG拷贝到~/.kube/config目录下。

$ kubectl config view --raw > ~/.kube/config

最后,检查Helm是否能正常工作。

$ helm

部署可观测性组件

在该阶段,我们将使用Helm部署Prometheus、Promtail、Loki、Tempo以及Grafana,最后部署应用并验证。

!! 以上应用都将部署到K3s中。

首先,从仓库把需要的manifests克隆下来。

$ git clone https://github.com/stazdx/otel-springboot-grafana-tools.git
$ cd otel-springboot-grafana-tools/kubernetes

然后,添加Helm仓库。

$ helm repo add grafana https://grafana.github.io/helm-charts
$ helm repo update

image.png

最后,创建一个namespace,所有应用都部署到该namespace下。

$ kubectl create ns observability

image.png

部署Promtail

使用以下命令进行部署:

$ cd promtail
$ helm upgrade --install promtail grafana/promtail -n observability -f promtail.yaml

image.png

注意检查Promtail所指向的Loki地址。

部署Loki

部署命令如下:

$ helm upgrade --install loki grafana/loki-distributed -n observability

image.png

loki-loki-distributed-gateway这个Service非常重要,Promtail将向它发送数据,Grafana将通过它获取数据。

部署Tempo

首先,进入Tempo清单所在的目录:

$ cd ../tempo

在安装Tempo之前,我们需要先安装minio,命令如下:

$ kubectl apply -f minio.yaml

image.png

!! Minio被部署在default命名空间中,因为它是一个更通用的对象存储工具,而不是直接用于观察性。

现在,使用以下命令部署Tempo:

$ helm upgrade --install tempo grafana/tempo-distributed -n observability -f tempo.yaml

image.png

!! Grafana将通过_tempo-tempo-distributed-query-frontend:3100_来获取数据。

部署Prometheus和Grafana

Prometheus和Grafana直接使用官网仓库进行部署。

首先,添加Helm仓库。

$ helm repo add prometheus-community https://prometheus-community.github.io/helm-charts
$ helm repo update

然后,使用仓库清单进行部署。

$ cd ../prometheus-grafana
$ helm dependency update
helm upgrade --install kube-prometheus-stack -n observability .

image.png

检查Deployments

使用Helm命令查看部署的所有应用。

$ helm ls -n observability

image.png

然后,使用kubectl检查应用是否都启动成功。

$ kubectl get po -n observability

image.png

检查Service是否正常。

$ kubectl get svc -n observability

image.png

我们看到所有应用都正常部署完成。

部署后端应用

直接到仓库目录清单部署即可。

$ cd ../springboot-app

需要注意的是,为了能够让Prometheus能够正常抓取指标,我们需要添加以下Annotations

annotations:
    # Annotations for Prometheus - scrape config 
    prometheus.io/path: '/actuator/prometheus'
    prometheus.io/port: 'actuator'
    prometheus.io/scrape: 'true'

另外一个重要的配置就是OpenTelemetry配置,如下:

env:
            - name: SERVER_PORT
              value: '8080'
            - name: MANAGEMENT_SERVER_PORT
              value: '8081'
            # Setting OTEL_EXPORTER_METRICS: none - Default: OTLP
            - name: OTEL_METRICS_EXPORTER
              value: none
            - name: OTEL_TRACES_EXPORTER
              value: otlp,logging
            # Setting Tempo Distributor Service using GRPC Port -> 4317
            - name: OTEL_EXPORTER_OTLP_ENDPOINT
              value: http://tempo-tempo-distributed-distributor.observability.svc.cluster.local:4317
            - name: OTEL_SERVICE_NAME
              value: springboot-app
            - name: KUBE_POD_NAME
              valueFrom:
                fieldRef:
                  fieldPath: metadata.name
            - name: OTEL_RESOURCE_ATTRIBUTES
              value: app=springboot-app

最后,我们有一个包含Spring Boot的Grafana仪表盘的配置图,这将使我们能够通过请求延迟等指标看到Exemplar与Tempo的关联。

配置检查无误后,就可以进行部署了。

$ kubectl apply -f springboot-app.yaml

image.png

检查应用是否部署成功。

$ kubectl get deploy,svc,cm -l app=springboot-app

image.png

接口测试

首先,测试/fail接口:http://{external-ip}:8080/fail

然后,测试/success接口:http://{external-ip}:8080/success

最后,测试/actuator/prometheus接口:http://{external-ip}:8081/actuator/prometheus

可以看到所有接口返回正常。

Grafana测试

上面以及完成了所有的配置,接下来就在Grafana中验证是否能够正常使用。

首先,获取Grafana的访问地址。

$ kubectl get svc -n observability

image.png

在浏览器输入地址http://{external-ip}:32656

然后,添加数据源。

我们把Prometheus、Loki以及Tempo数据源都添加上。

其中,Prometheus的配置如下:

!! 可以看到Prometheus和Tempo通过Exemplars进行关联了。

Loki的配置如下:

!! 可以看到Loki和Tempo通过trace_id进行关联了。

Tempo的配置如下:

!! 在这里我们将Tempo与Loki相关联,并映射我们在微服务中配置的应用标签。

测试一下

通过Explore可以查看应用日志。

选择Loki数据源。

通过Loki,我们可以通过label对监控日志进行过滤。

从日志中,我们可以看到trace信息。

然后,我们查看Grafana面板。

我们选择Spring Boot Demo,它是我们自己创建的面板。

我们可以看到应用的请求延迟,另外星星是由Exemplar生成。

用鼠标悬停在它上面,我们可以看到它是如何与一个trace_id相关联的,当点击它时,它将把我们重定向到Tempo。

我们可以看到它产生的跟踪,我们也可以看到日志,因为它也是与Loki相关的,当点击时我们会看到具体信息:

屏幕被分割,但是我们可以看到具体的日志了。

最后

我们实现了指标、日志和跟踪之间的可观察性关联。这可以帮助我们在微服务的故障排除过程中,识别瓶颈,看到我们的应用指标的行为,并能够获得特定的跟踪和日志。

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
5月前
|
Kubernetes Ubuntu Linux
k8s部署grafana beyla实现app应用服务依赖图可观测
k8s部署grafana beyla实现app应用服务依赖图可观测
73 4
|
Prometheus Kubernetes 监控
最佳实践:Kubernetes 集群中 DNS 故障的可观测性与根因诊断
本文介绍了 CoreDNS 服务器、客户端侧的常见 DNS 异常、故障根因,异常观测方案和故障处理流程,希望对大家的问题诊断有所帮助。DNS 服务对于 Kubernetes 集群是至关重要的,除了观测异常之外,我们在架构设计之初就应充分考虑 DNS 服务的稳定性,采纳一些例如 DNS 本地缓存之类的最佳实践。
最佳实践:Kubernetes 集群中 DNS 故障的可观测性与根因诊断
|
Prometheus Kubernetes 监控
在 K8s 上构建端到端的无侵入开源可观测解决方案
在 K8s 上构建端到端的无侵入开源可观测解决方案
|
自然语言处理 运维 Kubernetes
《2021 阿里云可观测技术峰会演讲实录合辑(下)》——二、 基于eBPF的Kubernetes可观测实践【上】
《2021 阿里云可观测技术峰会演讲实录合辑(下)》——二、 基于eBPF的Kubernetes可观测实践【上】
176 0
|
存储 监控 Kubernetes
《2021 阿里云可观测技术峰会演讲实录合辑(下)》——二、 基于eBPF的Kubernetes可观测实践【下】
《2021 阿里云可观测技术峰会演讲实录合辑(下)》——二、 基于eBPF的Kubernetes可观测实践【下】
200 0
|
SQL 运维 Kubernetes
《2021 阿里云可观测技术峰会演讲实录合辑(下)》——二、 基于eBPF的Kubernetes可观测实践——场景实践:基于eBPF的统一交互页面【上】
《2021 阿里云可观测技术峰会演讲实录合辑(下)》——二、 基于eBPF的Kubernetes可观测实践——场景实践:基于eBPF的统一交互页面【上】
190 0
|
开发框架 自然语言处理 Kubernetes
《2021 阿里云可观测技术峰会演讲实录合辑(下)》——二、 基于eBPF的Kubernetes可观测实践——场景实践:基于eBPF的统一交互页面【下】
《2021 阿里云可观测技术峰会演讲实录合辑(下)》——二、 基于eBPF的Kubernetes可观测实践——场景实践:基于eBPF的统一交互页面【下】
148 0
|
运维 监控 Kubernetes
容器可观测-如何为 K8s 中的所有事件提供可观测能力|学习笔记
快速学习容器可观测-如何为 K8s 中的所有事件提供可观测能力
容器可观测-如何为 K8s 中的所有事件提供可观测能力|学习笔记
|
JSON 运维 Kubernetes
K8s场景下Logtail组件可观测方案升级-Logtail事件监控发布
SLS针对Logtail本身以及Logtail的管控组件alibaba-log-controller,采用K8s事件的方式,将处理流程中的关键事件透出,从而让用户能够更清楚的感知其中发生的异常。
545 0
K8s场景下Logtail组件可观测方案升级-Logtail事件监控发布
|
消息中间件 监控 Kubernetes
k8s的可观测性
k8s的可观测性