性能场景之稳定性场景方案设计

简介: 今天想说说稳定性场景设计。经常在一些场合被问到性能场景的设计问题,但是大部分都是和容量相关的。为什么稳定性问的人少呢?稳定性是不是说在容量场景做好了之后就水到渠成了呢?首先稳定性场景的设计应该说比容量场景设计要简单一点。毕竟容量如果测试结果非常好的话,稳定性场景只要有一时间变长的动作就可以了。但是不要小看这个时间变长的动作,它会让你要准备和思考的内容多出不少。下面来庖丁解牛地细化一下

一、前言

今天想说说稳定性场景设计。

经常在一些场合被问到性能场景的设计问题,但是大部分都是和容量相关的。

为什么稳定性问的人少呢?稳定性是不是说在容量场景做好了之后就水到渠成了呢?

首先稳定性场景的设计应该说比容量场景设计要简单一点。

毕竟容量如果测试结果非常好的话,稳定性场景只要有一时间变长的动作就可以了。

但是不要小看这个时间变长的动作,它会让你要准备和思考的内容多出不少。

下面来庖丁解牛地细化一下。

二、数据的增加

数据的增加有两个方面。

  1. 参数化数据;
  2. 基础数据。

先说下参数化数据:

拿一个 100 TPS 和稳定性场景来说,假设业务数据不能复用,如果只测试 30 分钟。需要的数据是:
$$ 100*30*60=180000 $$
也就是 18 万的参数化数据。

如果要跑 12 个小时呢?就是:
$$ 100*12*60*60=4320000 $$
也就是 432 万条数据。

有人说了,我要跑 7*24 。嗯,很好,那就需要 60480000。6 千多万。慢慢准备吧。

如果这些数据是做 insert 的动作呢,可想而知,对表结构的要求就会多出很多,索引的创建的合理性就非常重要了。

举个例子。同样的一个 SQL,在查找基数为 5537362 的表,都是查一条数据出来。如果是从 9 万多条的索引命中的数据中找的话,需要 0.219 s,而在索引命中 100 多条数据中找的话,只需要 0.016 s。

这是 14 倍的差距。
image.png

三、监控的考验

如果是自己写监控脚本,稳定性场景中数据量的处理那是非常耗时的。所以在稳定性场景中,基本上不会像容量场景中那样设计监控粒度。

粒度的扩大导致的另一个问题是毛刺看不到。

一般容量场景中使用 1~3s 的监控采样粒度,1s 对系统监控还是会消耗些资源。3s 不会有太大的影响。

但是对稳定性来说,3s 都有点短了。可以设置 5~10s 的监控粒度。5-10 的跨度是不是有些大呢?这个取决于系统的稳定程度,对不稳定的 TPS 曲线,可以设置为 5s,对稳定的 TPS 曲线,10s 我觉得是够了的。

监控工具也要选择好,尽量不要用手工生成数据和曲线的工具,费时费力又容易出错。

用自动生成图表的工具比较理智,并且要用可以持续保存数据的。像 Prometheus 类型的工具。

先要设置好监控的计数器。从 OS 层开始,到应用层,到 Jvm 层,到数据库层。

OS 层一定要有 CPU、Memory、IO、Network 这几个是基本的,如果是 C/C++ 的应用,还要有 Process 层的监控。

在场景结束时如果发现还有需要的数据没取到,那就悲催了,还要再来一遍。

四、对压力工具的选择

一般情况下选择压力工具要注意压力工具本身的稳定性。像 Loadrunner/Jmeter 之类的工具已经被普遍接受了,没有什么问题。

但是 Jmeter ,本地的 jvm 也是需要关注的。

尽量不要用压力工具取监控的数据,这种做法会让结果整理比较费力。

五、场景的时长确定

这应该是稳定性场景中最关键的一个点了。

我看到有不少设计稳定性的时候没有计算过,只是凭感觉。

那怎么设计这个时长?

我们可以做一个计算,这个计算有一个前提条件。就是系统在运维的过程中需要稳定运行多长时间。

假设在运维中是要三个月做一次正常的维护动作,在这个动作中包括了对一些资源的归档、系统的重启等。

那下一步要计算的就是系统三个月内的业务总量。

我们来做一个假设场景:

一个系统一天业务量是 100 万笔。稳定运行要求 三个月。那总的业务量就是 100万330=9000万。假设系统最大 TPS 是 2000。

这时候要设计的稳定性场景时长就是:
$$ (9000万/2000 TPS )*3600=12.5h。 $$
比如说下面两个场景。

下面的图是混合容量场景,看到 TPS 是能加到 5000 左右,但是在 3000 以上的时候就出现了TPS 有下降情况(因为这个文章不是为了分析性能,所以不做下降原因详解)。

image.png

根据这个系统的业务需求,稳定运行时间是三个月。线上均值 TPS 是 329。

那业务量在三个月就是:
$$ 329*3*30*24*3600=2558304000 笔业务。 $$

稳定性场景用 80%*最大TPS 的压力做的话(这里的稳定性场景的 TPS 可以灵活设置,不一定都是 80%*最大TPS),就是 4000 TPS 左右。

来计算一下:
$$ 2558304000/4000/3600/24=7.4天 $$
这样时长就确定下来了。

六、小结

对于稳定性还有其他的一些区别,都是要一一细化的,这里就不接着写了。毕竟文章太长看得人也累。

目录
相关文章
|
8天前
|
弹性计算 负载均衡 关系型数据库
如何提高业务系统的稳定性
【6月更文挑战第21天】如何提高业务系统的稳定性
|
5天前
|
机器学习/深度学习 运维 监控
自动化运维:提升效率与可靠性的关键
随着信息技术的迅猛发展,企业对高效且可靠的IT运维需求愈发迫切。本文深入探讨了自动化运维在现代IT环境中的重要性及其应用,从多个角度阐述了自动化运维如何提升效率、降低成本、减少人为错误以及增强系统稳定性。
|
1月前
|
缓存 运维 监控
|
9月前
|
运维 监控 容灾
建设强大系统:提升高可用、可靠性和稳定性的秘诀
建设强大系统:提升高可用、可靠性和稳定性的秘诀
|
9月前
|
消息中间件 监控 Java
系统稳定性保障设计总结和思考
系统稳定性保障设计总结和思考
399 0
【架构质量】可靠性系列#1:可靠性与韧性
【架构质量】可靠性系列#1:可靠性与韧性
|
存储 运维 监控
数据密集型系统的云原生架构与稳定性保障
本文是参加QCon全球软件开发大会(2023·北京站)专题分享后的一些总结。参加此次大会的最大感受是疫情后的快速恢复,到现场的听众座无虚席,一些场次甚至出现无座。同时也学习了其他多个专题分享,总体感觉是整个大会专业度很高,无论是从专题分享的内容、还是Q&A环节的听众互动。
240 0
数据密集型系统的云原生架构与稳定性保障
|
消息中间件 监控 Cloud Native
阿里云发布性能测试 PTS 2.0:低成本、高效率、多场景压测,业务稳定性保障利器
618 来临,高峰时段的品牌直播间要同时容纳几百万人线上发弹幕、抢货、抢红包,如此大的用户体量、高频交互以及脉冲流量场景,对于后端服务器来说都是不小的挑战。 为了确保线上稳定性以及优质的交互体验,通过性能测试 PTS(Performance Testing Service)进行压测成为很多平台和品牌商的首选。
阿里云发布性能测试 PTS 2.0:低成本、高效率、多场景压测,业务稳定性保障利器
|
1月前
|
弹性计算 监控 安全
如何做好大促稳定性保障
本文从一个大客户云上稳定性保障入手,介绍这家企业是如何来做大促稳定性保障。接着会分析友商AWS在高可用保障这块的最佳实践及部分实现手段。最后介绍一下面向云时代,阿里云可以做哪些具体工作来提升客户稳定性保障工作效率。
如何做好大促稳定性保障
|
存储 Kubernetes Java
K8s集群稳定性提升手段
K8s集群稳定性提升手段
K8s集群稳定性提升手段