如何配置 SLO

本文涉及的产品
应用实时监控服务-应用监控,每月50GB免费额度
公网NAT网关,每月750个小时 15CU
应用实时监控服务-用户体验监控,每月100OCU免费额度
简介: 如何配置 SLO

前言

无论是对外提供 IaaS PaaS SaaS 的云公司,还是提供信息技术服务的乙方公司,亦或是金融 制造等各行各业的数据中心、运维部门,我们的一个非常重要的合同承诺或考核评估指标就是:SLA(即:Service-Level Agreement 服务等级协议)。

而真正落地实现 SLA 的精确测量,最广为人知的就是 Google 的 SRE 理论。

Google SRE SLO & SLA

在 Google,会明确区分 SLO 和服务等级协议 (SLA)。SLA 通常涉及向服务用户承诺,即服务可用性 SLO 应在特定时间段内达到特定级别。如果不这样做,就会导致某种惩罚。这可能是客户为该期间支付的服务订阅费的部分退款,或者免费添加的额外订阅时间。SLO 不达标会伤害到服务团队,因此他们将努力留在 SLO 内。如果您要向客户收取费用,则可能需要 SLA。

SLA 中的可用性 SLO 通常比内部可用性 SLO 更宽松。这可以用可用性数字表示:例如,一个月内可用性 SLO 为 99.9%,内部可用性 SLO 为 99.95%。或者,SLA 可能仅指定构成内部 SLO 的指标的子集。

如果 SLA 中的 SLO 与内部 SLO 不同(几乎总是如此),则监控必须显式测量 SLO 达标情况。您希望能够查看系统在 SLA 日程期间的可用性,并快速查看它是否似乎有脱离 SLO 的危险。

您还需要对合规性进行精确测量,通常来自 Metrics、Tracing、Logging 分析。由于我们对付费客户有一组额外的义务(如 SLA 中所述),因此我们需要将从他们那里收到的查询与其他查询分开进行度量。这是建立 SLA 的另一个好处 — 这是确定流量优先级的明确方法。

定义 SLA 的可用性 SLO 时,请注意将哪些查询视为合法查询。例如,如果客户因为发布了其移动客户端的错误版本而超出配额,则可以考虑从 SLA 中排除所有 " 超出配额 " 的响应代码。

SLI

SLI 是经过仔细定义的测量指标,它根据不同系统特点确定要测量什么。

常见的 SLI 有:

  • 性能
  • 响应时间 (latency)
  • 吞吐量 (throughput)
  • 请求量 (qps)
  • 实效性 (freshness)
  • 可用性
  • 运行时间 (uptime)
  • 故障时间 / 频率
  • 可靠性
  • 质量
  • 准确性 (accuracy)
  • 正确性 (correctness)
  • 完整性 (completeness)
  • 覆盖率 (coverage)
  • 相关性 (relevance)
  • 内部指标
  • 队列长度 (queue length)
  • 内存占用 (RAM usage)
  • 因素人
  • 响应时间 (time to response)
  • 修复时间 (time to fix)
  • 修复率 (fraction fixed)

SLO

**SLO(服务等级目标)** 指定了服务所提供功能的一种期望状态,服务提供者用它来指定系统的预期状态。SLO 里不会提到,如果目标达不到会怎么样。

SLO 是用 SLI 来描述的,一般描述为:

比如以下 SLO:

  • 每分钟平均 qps > 100 k/s
  • 99% 访问延迟 < 500ms
  • 99% 每分钟带宽 > 200MB/s

设置 SLO 时的目标依赖于系统的不同状态(conditions),根据不同状态设置不同的 SLO:

总 SLO = service1.SLO1 weight1 + service2.SLO2 weight2 + …
GCODE

为什么要有 SLO,设置 SLO 的好处是什么呢?

  • 对于客户而言,是可预期的服务质量,可以简化客户端的系统设计
  • 对于服务提供者而言
  • 可预期的服务质量
  • 更好的取舍成本 / 收益
  • 更好的风险控制(当资源受限的时候)
  • 故障时更快的反应,采取正确措施

SLA

SLA = SLO + 后果
INI

小结

  • SLI:服务等级指标,经过仔细定义的测量指标
  • SLO:服务等级目标,总 SLO = service1.SLO1 weight1 + service2.SLO2 weight2 + …
  • SLA: 服务等级协议, SLA = SLO + 后果

如何配置 SLO

公有云常见 SLO

常见于通过 处理请求的服务或 API 提供的服务(如:对象存储 或 API 网关)

  • 错误率 (error rate) 计算的是服务返回给用户的 error 总数
  • 如果错误率大于 X%(如 0.5%),就算是服务 down 了,开始计算 downtime
  • 如果错误率持续超过 Y (如 5)分钟,这个 downtime 就会被计算在内
  • 间断性的小于 Y 分钟的 downtime 是不被计算在内的。

前端 Web 或 APP

前端用户体验 Apdex 目标

如果有前端 js 探针监控,或拨测监控,那么可以用前端用户体验 Apdex 作为 SLO。

Apdex 定义了一个性能标准,将应用程序用户分为三个组:

  • 满意、
  • 可容忍(一般)
  • 沮丧(不满意)。

例如,作为前端应用程序的 SLO,您可以指定希望 90% 的用户 Apdex 都是 满意

如,My WebApp Apdex 公式如下:

100% * (apps.web.actionCount.category:filter(eq(Apdex category,SATISFIED)):splitBy("My WebApp")) / (apps.web.actionCount.category:splitBy("My WebApp"))
LESS

前端 APP 无崩溃(Crash)用户率目标

衡量手机 App (iOS 和 Android) 的可用性和可靠性的最重要指标之一是 无崩溃用户率。指的是没有崩溃的情况下打开并使用移动 APP 的用户百分比。

因此,公式示例如下:

apps.other.crashFreeUsersRate.os:splitBy("My mobile app")
STYLUS

拨测可用性目标

拨测可用性 SLO 表示拨测处于可用状态下的时间百分比,或者,成功拨测占执行的总测试数的百分比。

因此,公式示例为:

(synthetic.browser.availability.location.total:splitBy("My WebApp"))
STYLUS

后端应用 或 Service

基本的 SLO - 调用成功率目标

成功率 = 成功的请求调用次数 / 总的请求调用次数
ABNF

如:My service 的 成功率:

100% * (service.requestCount.successCount:splitBy("My service"))/(service.requestCount.totalCount:splitBy("My service"))
LESS

那么,如果 My service 的关键 API 或请求需要计量,就可能是下面的公式:

(100%)*(service.keyRequest.successCount:splitBy(type("SERVICE_API") AND entityId("POST /login")))/(service.keyRequest.totalCount:splitBy(type("SERVICE_API") AND entityId("POST /login")))
LISP

ℹ️ 提示:

成功 的请求最简单的一种方式是:http 状态码为 2xx 或 3xx 的请求即视为成功。

还有一种,请求执行过程中没有抛出错误(日志或异常)的请求视为成功。

服务性能目标

重点在于 性能

服务性能 SLO 表示 「fast」 服务调用占服务调用总数的百分比,其中 「fast」使用自定义条件定义。例如:

  • fast:0 - 3s 内完成服务调用()
  • normal:3 - 5s 内完成服务调用
  • slow:5s 以上完成服务调用或超时

ℹ️ 提示:

当然,上边的 3s 也不应该是拍脑袋想的,而应该是例如基于过去一个月系统正常运行时 99% 百分位数的响应时间。

公式示例为:

(service:fastRequests:splitBy("My WebApp")) / (service:totalRequests:splitBy("My WebApp"))
LISP

后端数据库

数据库可用性或读可用性目标

错误率:是在给定的一小时间隔内,DB 的失败 SQL 执行次数除以总 SQL 执行次数。

读错误率:是在给定的一小时间隔内,DB 的失败查询 SQL 执行次数除以总 SQL 执行次数。

公式示例为:

可用性 % = 100% - Average DB Error Rate
EXCEL

或:

读可用性 % = 100% - Average DB Read Error Rate
EXCEL

吞吐量目标

  • 吞吐量失败的请求:是指请求尚未超过给定 DB 吞吐量,却被 DB 吞吐量限制,导致错误码
  • 吞吐量错误率:是在给定的一小时间隔内,给定 DB 的吞吐量失败请求总数除以总请求数。

那么,公式示例为:

吞吐量目标% = 100% - 平均吞吐量错误率
GCODE

一致性目标

SLI 为:

一致性违规率 :是指在给定的 DB 中,在给定的一小时间隔内,对所选的一致性级别(按总请求数划分) 执行一致性保证时无法发送的成功请求。

延迟目标

  • P99 延迟:计算出的一段时间内的测试 SQL (如select 1 from dual) 执行时间的 99% 百分位响应时间。
  • 延迟时间和:是指在应用程序提交的 SQL 成功请求导致 P99 延迟大于或等于 10ms 的一个小时间隔的总数。

那么,示例公式为:

延迟目标% = 100% - 总的延迟时间和的次数 / (DB 总使用时间 /1H)
GCODE

如:过去 1 个月,总的延迟时间和的次数为 50 次,分母为:30 * 24 / 1 = 720

那么:延迟目标 % = 100% - 50 / 720 ≈ 93%

MQ 类

消息成功率目标

就是成功的消息除以 MQ 接收的总消息。

公式示例为:

(100)*((mq.rabbitmq.queue.requests.successful:splitBy("payment"))/mq.rabbitmq.queue.requests.incoming:splitBy("payment")))
STYLUS

Host 类

UPTIME 目标

例如,每小时正常运行时间百分比 = 100% - 单个 Host 实例处于不可用状态的总时间(没有超过多长时间才算不可用一说)百分比

不可用的定义可以是:

  • 该 Host 实例没有网络连接
  • 该 Host 实例 无法执行读写 IO,且 IO 在队列中挂起。即 IO hang。

K8S 类

K8S 类是一类综合系统,需要考虑如下目标

  • API Server 成功率目标
  • 计算目标
  • 存储目标
  • 网络目标

存储类

可用性(Availability)目标

大致也是类似上边的可用性目标。

数据持久性(Durability)目标

这个通常非常高,比如:99.999999999%

可以简单粗暴认为:只要有数据丢失的情况,就是没达到目标。

典型案例就是腾讯的那次。

网络类

可用性目标

以 NAT 网关为例:

单实例服务不可用分钟数: 当某一分钟内,NAT 网关实例出方向所有数据包都被 NAT 网关丢弃时,则视为该分钟内该 NAT 网关实例服务不可用。在一个服务周期内 NAT 网关实例不可用分钟数之和即服务不可用分钟数。

总结

可以根据不同的层次、组件设定不同的 SLO。

SLO 的监测是需要监控工具的支持。

常用的 SLO 包括:

  • 可用性(Availability)目标
  • 成功率(Success Rate)目标
  • 延迟 (Latency) 目标
  • 运行时间 (Uptime) 目标
  • 数据持久性(Durability)目标

EOF

相关实践学习
通过云拨测对指定服务器进行Ping/DNS监测
本实验将通过云拨测对指定服务器进行Ping/DNS监测,评估网站服务质量和用户体验。
相关文章
|
8月前
|
Prometheus 监控 前端开发
七步成诗 - 快速创建有效 SLO
七步成诗 - 快速创建有效 SLO
|
6月前
|
存储 Kubernetes 监控
一文带你玩转全新采集配置 CRD:AliyunPipelineConfig
相较于 AliyunLogConfig,AliyunPipelineConfig 在配置格式、行为逻辑上做了很大改进,主打灵活、简单、稳定。点击本文,手把手教你如何配置 AliyunPipelineConfig,欢迎大家使用~
36783 20
|
5月前
|
Kubernetes 网络性能优化 调度
在K8S中,Kubernets资源限制是如何配置的,是否根据Qos?
在K8S中,Kubernets资源限制是如何配置的,是否根据Qos?
|
8月前
|
Prometheus 监控 Kubernetes
Kubernetes 集群的监控与日志管理策略
【4月更文挑战第30天】 在微服务架构日益普及的当下,容器化技术与编排工具如Kubernetes成为了运维领域的重要话题。有效的监控和日志管理对于保障系统的高可用性和故障快速定位至关重要。本文将探讨在Kubernetes环境中实施监控和日志管理的最佳实践,包括选用合适的工具、部署策略以及如何整合这些工具来提供端到端的可见性。我们将重点讨论Prometheus监控解决方案和EFK(Elasticsearch, Fluentd, Kibana)日志管理堆栈,分析其在Kubernetes集群中的应用,并给出优化建议。
|
8月前
|
存储 Kubernetes 监控
Kubernetes(k8s)集群健康检查常用的五种指标
Kubernetes(k8s)集群健康检查常用的五种指标
1108 1
|
8月前
|
Prometheus 监控 Cloud Native
使用 Prometheus 配置 SLO 监控和告警
使用 Prometheus 配置 SLO 监控和告警
|
Kubernetes 监控 Python
阿里云kubernetes(ACK)pod异常问题分析辅助工具-pod生命周期及事件可观测一览图
阿里云kubernetes(ACK)pod异常问题分析辅助工具-pod生命周期及事件可观测一览图
|
存储 缓存 Prometheus
【夜莺监控】管理Kubernetes组件指标(下)
【夜莺监控】管理Kubernetes组件指标(下)
|
Prometheus 资源调度 Kubernetes
【夜莺监控】管理Kubernetes组件指标(上)
【夜莺监控】管理Kubernetes组件指标(下)
|
运维 监控 微服务
在ASM中为应用服务启用SLO(1):服务等级目标SLO概览
服务等级目标 (SLO) 提供了一种形式化的方式来描述、衡量和监控微服务应用程序的性能、质量和可靠性。SLO 为应用开发和平台团队、运维团队提供了一个共享的质量基准,作为衡量服务水平质量以及持续改进的参考。SLO 由一个或多个服务等级指标 (SLI) 组成。使用 SLI 组合定义的 SLO 允许团队以更精确和相关的方式描述服务健康状况。 阿里云服务网格ASM提供了开箱即用的基于服务等级目标SLO的监控和告警能力,用于监控应用服务之间调用的延迟和错误率特征。
667 1
在ASM中为应用服务启用SLO(1):服务等级目标SLO概览