历年双11实战经历者:我们是如何做数据库性能优化及运维-CloudDBA和天象

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
传统型负载均衡 CLB,每月750个小时 15LCU
简介: 8月24日阿里云数据库技术峰会上,阿里云高级DBA专家玄惭带来面对超大规模的数据库集群,尤其是在每年像双11这样重大促销活动中,阿里云是如何进行运维和优化的。本文主要介绍了天象和CloudDBA两个产品,包括他们的起源、基于系统画像仓库的应用、产品化等,最后对RDS产品的可诊断性建设和可运维性建设作了补充。

8月24日阿里云数据库技术峰会上,阿里云高级DBA专家玄惭带来面对超大规模的数据库集群,尤其是在每年像双11这样重大促销活动中,阿里云是如何进行运维和优化的。本文主要介绍了天象和CloudDBA两个产品,包括他们的起源、基于系统画像仓库的应用、产品化等,最后对RDS产品的可诊断性建设和可运维性建设作了补充。

 

随着云数据库时代的到来,它的运维体系不仅仅包括保持数据库集群的稳定,同时我们还要关注用户体验。在业务上,体量大,用户各类,例如有公有云小客户,也有企业大客户,每类客户的需求都各式不一,众口难调。在系统上,为了实现故障切换和资源对用户透明,系统设计中包括了众多组件,例如RDS的数据访问链路从DNS-SLB-Proxy-DB节点,也有管理控制链路从前端控制台-OPEN API-后端组件-DB节点,这样给问题的排查带来了巨大的困难,出现了一个问题你不知道是出现在那个环节。在服务上,每个用户都要求一样高的SLA,服务的不好可能就会引发公关危机。所以在云数据库时代我们面临着下面三个挑战:

一.          实例数呈指数级别增长,后端运维压力急剧上升。

二.          用户端不在我们的管理范围内,无法配合排查,巨大的成本。

三.       除了RDS自身稳定,还需要确保用户数据库本身的稳定。

面对这样的挑战该如何突破,冰冻三尺非一日之寒,RDS在过去5年的发展历程中,在系统的可运维以及可诊断中我们是怎样做的?

 

天象

一.自证清白的救赎

起源

2b6f028f1ac3559c30845f65c6f57d0746f2ced6

在2012年RDS刚刚成立之初,我们当时面临这一个非常严重的用户问题:闪断。当时很多游戏用户反馈游戏突然掉线了,应用的报错日志中显示应用和数据库的连接断开或者超时。面对这样的问题,很多时候是DB节点发生了主备切换,OOM或者crash,这样的情形是比较好排查的,但是对于DB上层的链路,比如proxy出现了抖动,上层SLB做了网络变更,甚至再上层的网络交换机出现了down机或者丢包,这个时候的网络闪断问题就非常难以排查了。出现这样的一个问题对于排查者来说是一个梦魇,因为他要去找很多的人去排查各个组件的负责人排查一下有没有问题,结果问了一圈都说没有问题,耗费大量的时间,客户也在哪里焦急的等待着回复。问题的根源每个组件的监控没有办法全链路统一起来。面对这样的问题,如何能够快速,简单的去发现问题出现在哪个环节?

7291c8cd7ca7f34b921c4590ab5c81bf020347c0

619c3d3b11cc5e956155f7f082e2d02ba4e33cbe

我们需要了解用户的服务质量,我们要做链路的可视化,全量秒级的可视化出链路各环节的延迟、丢包等数据。有了这样的目标,接着我们就开始将客户端到SLB,proxy,再到DB节点,所有的请求通过TCPRT全链路数据采集存储下来。TCPRT全链路系统对用户所有节点上的网络包进行实时分析并绘制出网络拓扑, 可以追溯到每段链路上每条用户链接任意每秒的延迟、丢包率、流量、异常等指标。通过可视化用户的真实链路拓扑, 我们可以在排查问题时, 很容易追溯发生问题的源头以及问题原因。整个系统目前每秒记录上百万条连接快照, 每天处理近百TB数据,远超传统监控系统的问题域,帮助我们可视化。上图中两台服务器的链路出现红色,最后反馈给用户进行排查,最终定位这两台服务器压力很大,原始情况下我们不知道问题出现在哪个节点,有了很直观的拓扑簇后,我们就可以快速定位问题。

6073ca35b3a15c58ec9ffae24b0ffd9d930968ac

有了TCPRT的全链路数据之后,用户向云厂商提出问题,这时候我们要做自证清白,我们把用户实例所涉及到的组件,比如前端的proxy到后端的主机再到MySQL实例等等所有关键的核心链路指标,我们都会去做一次体检,这时候我们就可以快速去诊断问题到底出在DB节点还是主机上,有了这样的平台后,我们就可以快速地把我们运维能力规模化提升。

dd715bb61b0f17f8b8e2f3bc673037bd70b1bc2d

图为某用户链路RT反馈前端较慢,从监控数据可以看到RT增加了,再看后端DB监控对应的时间点,发现数据库CPU上去了,我们再去查后端用户的监控数据进行对比排查,这样就很方便的得出问题的节点在DB这一层,进而在深入排查用户数据库的资源,慢SQL以及其他内部诊断数据。有时候用户可能会说我的应用访问数据库慢了,他最直观的感觉是数据库出问题了,实际也有可能是应用到数据库中间链路出现了问题,这时,我们就可以通过链路数据最直观的看数据库端到用户中间的RT是多少,这有利于了解用户的服务质量。

二.规模化运维能力提升

随着集群规模的变大,机器数量越来越多,传统靠人的运维的模式已经不在持续,以前是被动接受用户投诉,现在变为主动发现问题,比如后端主机出现抖动(磁盘,内存,网卡故障),这时我们会快速的发现主机抖动原因,最终尝试自动解决问题,发现Top问题,并指导解决。

8cf525dffc3daec14cbac26eb534373655bb685b

目前已经可以做自动化闭环牵引,当发现主机如果硬件出现问题,它的服务质量就会出现波动,我们就要自动化下线掉。如果我们发现某台主机有个实例出现争抢,我们把这个实例进行隔离,我们由被动变成闭环自动迁移处理,这是我们运维能力的提升。

另外比如在双11大促活动的时候,我们为集群预备了2-3倍容量资源供用户弹性升级使用。为了使新上线的机器得到资源最大化利用,以保障系统的稳定,需要将老机器上的实例离散到新机器上。同时双11活动完后我们需要把这一批扩容的主机下线,将其补充到其他业务集群进行售卖,以实现资源利用率最大化。针对上面的两个应用场景,RDS启动了移山项目。移山离散策略着力于对主机以及实例最近的性能数据进行计算,得出需要迁移离散的实例列表。移山收容策略则对集群和主机的性能数据进行计算,进而得出需要收容的主机实例列表。

基于系统画像仓库的应用

f1d3f362923e308f8489b01f1d532733fded7a0b

三.智能化推荐和故障预判

在双11大促销之前,弹性升级是商家在备战过程比不可少的一个环节,但是每年还是有很多用户不知道是否需要对数据库进行弹性升级,或者升级到多少规格。常常看到双11当天还有较多商家进行临时升级,这个时候其实已经比较危险了,这个时候系统压力往往非常大,对弹性升级的任务是有较大影响的。所以在双11备战前期,我们的系统能不能够针对用户的系统压力分析,提前通知用户进行升级,这样对双11的平稳渡过有着重要的意义。所以在每年双11期间,系统通过分析实例资源使用情况,通过一套智能算法预测用户未来用户的资源使用趋势,然后自动推动客户升级。 

6cc444c6446c6222257e510c86ac9849d7d72677 

RDS在设计初期为了实现故障切换和后端节点对用户透明,系统设计中包括了众多组件,例如RDS的数据访问链路包括了DNS-SLB-Proxy-DB。面对如此复杂的数据访问链路,如何快速的帮助故障处理人员去发现问题?故障指挥官系统应运而生,该系统会基于天象数据,收集全链路数据,从实例到主机到机架到机房的物理部署链路,从实例到proxy到SLB的数据访问链路,帮助我们快速去发现故障问题点,逐点排查,这样帮助决策者大大降低故障的排查时间,减少故障的影响。

故障指挥官

1b7880bf1292d218d9a09efbf8f3354e3d7321e6

 

CloudDBA

一.CloudDBA起源

云数据库服务不仅要保障底层系统的稳定,同时也要保证用户数据库运行稳定,用户这一层往往最困难的。用户的技术参差不齐,你无法去干涉用户怎么去使用数据库,或者说他们没有很好的规范去使用数据库,面对这种情况,我们该如何处理呢?在前面5年的客户保障中,我们积累了大量客户问题经验,但是人的精力是有限的,实例规模是在不断膨胀的,光靠人堆已经行不通了,所以我们决定将诊断经验产品化,将经验沉淀到产品中去,于是就有了CloudDBA这个产品。

用户使用数据库的问题各式各样,首先我们来分析一下用户在使用数据库过程中的分类,第一类运维操作,用户在购买完成一个数据库实例后,紧接着马上会做账号和DB的创建,或者添加只读节点,添加白名单,修改网络配置和访问模式等;第二类业务变更操作,比如创建表结构,存储过程和函数等对象操作,然后在将数据导入到数据库中去;第三类属于日常的巡检,优化以及故障排查,随着业务发展和数据量不断的变化,我们要实时关注数据库的健康运行,还有诸如IO、CPU、Disk 100%资源类的问题诊断,数据库出现锁等待和慢SQL后的业务优化等,类似这样的问题都是可以通过CloudDB进行解决,所以CloudDBA首先做巡检。

fadcec0122fa5ae7fcace98bc91d87333474c6ee

二.健康体检

通过巡检可以直观看到数据库实例是否有问题,将数据库的核心指标比如活跃连接数、CPU、IO、Disk、可用性纳入到评分模型中去,给数据库的健康状况进行打分。通过巡检-优化-巡检这样不断去迭代优化,将数据库中存在的风险点一个个进行修复,提升系统整体的稳定性。

在每年的双11保障过程中发现双11当天往往最容易出现问题是用户自身的应用程序问题导致系统卡慢。双11前没有暴露出的问题,会由于双11当天巨量的订单和高频的系统调用将这些潜在问题放大。提前找出并解决问题是保障双11稳定运行的最佳手段。因此双11活动之前,我们就对所有相关数据库进行了全面的体检,将数据库中的潜在风险提前识别出来,并通知用户进行优化和升级。所以我们设计了体检报告,其主要特点:1)诊断报告生成的高度自动化。生成健康诊断报告上万份且全程无人工干预,这一全新的运维方式在之前是不可想象的;2)诊断内容的深度化。从基本的资源使用情况和慢SQL分析,到死锁检测和审计日志全方位统计,再到事务的深层次分析找出应用中的潜在问题等都包含在我们的诊断报告当中;3)运维保障的人性化。双11保障不是简单粗暴的让客户升级系统规格,而是以优化为主升级为辅的方式。提前主动给出诊断优化建议极大的提升了用户体验。

ed9d7d4fa8f15192a2980b95a807b61b4b9c1fa9 

下面分享一个通过诊断报告解决一个大型在线系统压测选型问题。客户压测RDS内存12G和24G两种规格的性能,但是发现内存24G规格的还不如内存12G规格的,为什么规格升级性能反而下降了?我们必须进入到数据库中的每一条SQL去对比到底是那些SQL的执行时间增加了,但是如何在成千上万的SQL中找到性能差异的SQL是关键突破点。体检报告这个时候就成为了英雄,RDS的体检报告中含有TOP SQL的功能,我们发现 TOPSQL中TRUNCATE语句的性能出现了不一致,低规格的truncate语句执行速度优于高规格。通过这个报告定位差异的SQL,那么为什么truncate语句在大内存中变慢了,truncate 属于DDL语句,这个让我们联想到MySQL的一个bug,就MySQL DDL过程中会将内存中的脏页链表遍历一下,如果内存越大,脏页链表也就越长,所以遍历的时间也就越久,所以很快就定位到这里truncate语句变慢是因为内存上升后遍历脏页链表时间变长。

015e95dfe922be60841797c64a2ae40ec77380e1

三.产品化

d4cc4c60033dfd0012d34d68ffa92385d6e81c71

通过前面五年的积累,CloudDBA已经很好支持了我们内部管理人员快速简单的诊断数据库的性能问题,包括实例大盘(实例健康状态)、 实时问题检测、SQL多维度性能分析(全量SQL,慢SQL)、问题事务分析(事务未提交,查询开启事务,长事务,语句时间间隔)、SQL Review(事务列表,事务频率,时间轴分布)、实例空间分析、只读库延迟分析、死锁分析、实时会话状态、热点表/冗余索引分析、 SQL分析(执行计划,相关表DDL,索引建议)、健康体检报告。计划将在今年10月初将其产品化输出到控制台,真正将我们的经验和最佳实践赋能给我们的用户。

 

可诊断性建设

6aef69b1ded7c0e551fef189a379ebcf560c42d4

RDS经过5年的发展在稳定性和易用性上不断积累和沉淀,前面天象和CloudDBA这两个产品是这5年的一个浓缩。同时在产品的可诊断性上,全链路监控可以达到实例级别35个基本监控,主机级别13个基本监控,支持自定义分组监控大盘,监控粒度可达秒级。下面在重点介绍一下RDS的诊断快照。 

8f1adbfe89dd8f250f257f3a4d2df3843b24c828

诊断快照的设计初衷在于诊断过去时间点发生的问题,比如某客户反馈昨天晚上凌晨3点中数据库出现了锁等待,或者数据库cpu瞬间抖动了一下,这个时候由于没有当时出现问题时候的现场,导致问题排查起来显得比较麻烦,不得不去查看慢日志,审计日志,监控数据等指标。所以如果能够把出问题时候的现场保留下来,比如核心的show full processlist,show engine innodb status,慢SQL,数据库中的事务状态等等,那么问题诊断起来将会非常容易。所以诊断快照为了解决保存现场的问题,我们设定了有不同类型的诊断快照,包括定时快照和触发快照。定时快照是每隔2个小时自动触发一次数据库快照,将数据库中的线程,锁,事务,慢SQL等信息保存下来。触发式快照可以设定CPU、磁盘,连接数等关键指标的阀值,触发式引发诊断快照,这样就可以把数据库出现异常情况的时候将现场保留下来,例如上图显示的诊断快照列表中,有一个诊断快照诊断分数为0分,就可以查看process list这一列发现有很多的慢SQL出现了堆积,将数据库CPU打满,这样就非常方便的排查出问题的根源所在。

此外,可诊断性建设中还有较关键的审计日志,RDS最早的审计日志采用网络抓包的方式进行采集,但是这种方式收集日志存在严重的日志丢失和性能损耗。后面改进了数据库内核,采用类似general_log的方式进行收集审计日志,实现日志0丢失,性能损耗只有2%。审计日志记录字段:源ip,用户名,线程id,扫描行数,latency,执行时间(us),返回行数,更新行数错误号,消耗内存。在一些数据库性能优化中,比如出现QPS抖动,那么就可以通过TOP SQL功能找出QPS异常抖动是那些SQL带来的。还有一些问题比如遇到了锁等待问题,由于数据库已经持有锁的SQL是无法查看的,所以必须通过查审计日志去找到最终的业务调用来自哪里。

 

可运维性建设

d416ec9050a7de00734ce9ffd93d7d6b16733ed5

前面说过面对用户的行为习惯是不可控的,不好的使用方法会给后端的实例运维带来极大的压力。第一个就是用户建表时候不指定主键,简简单单的一个主键在用户删除数据的时候可能会导致备库直接hang主,这个时候主备失效,备份无法完成。所以这个简单的最佳实践并不所有用户都遵守的,作为云厂商该怎么处理,我们没有办法控制用户行为。所以我们在产品设计时需要规避掉这样的问题,我们在源码中进行优化,如果用户不指定主键,云端将会自动为用户创建主键。

c14634359e15e785db3d64e49002ce324ac9d673

第二个问题是很多用户选择Memory、Miyisam存储引擎,在用户的眼里这些引擎的性能都是非常好的,却不知这些引擎后面留着非常多的坑。比如Memory引擎的实例宕掉后,数据就会丢失,进而主备同步会断。Miyisam引擎不支持事务,在备份时候会锁住全库,造成主备延迟,对后端维护挑战非常大。所以作为云厂商,我们需要有一定的规范来控制住这些引擎的使用,所以在产品设计的时候,我们将两个存储引擎自动转化成Innodb存储引擎,这样对系统的可维护性是具有非常大的帮助。

8381df69403be525dc6ee86d124d16f318da4af6

第三个问题是主备延迟的问题,MySQL原生复制是单线程复制,5.6版本可以支持库级别的并行复制,对于大部分用户来说,如果主库频繁写入,备库必然会出现延迟,主备失效。所以我们优化了MySQL原生复制,默认开启并行复制。

bc2f7caaaf2f160f1038bf2248169b3ee1a8b452

第四个是在主备复制中断上,MySQL原生的逻辑复制存在很多的问题,你会发现主备中断是一个逃不掉的问题,所以我们在自动化建设上,将常见的主备中断进行自动化修复,减小主备中断给客户带来的影响。

 

未来,赋能客户

双11是全民的双11,云计算是全民的云计算,我们忠心希望未来用户在使用云计算的时候能够像使用水电煤一样简单。随着双11的全民化,有许多企业公司也开始做双11促销,但是他们的经验往往是比较匮乏的。历年双11当天我们收到了很多用户的援助请求,由于前期没有做好系统压测,导致在双十一当天业务高峰来临的时候系统垮掉,然后才考虑扩容,这个时候往往已经为时已晚。双11的护航保障经验是可以更广的传播到这些客户身上,我们也会不断地将最佳实践和保障经验沉淀到专家系统中,今年双十一,我们将会推出智能优化服务,将我们多年的数据库诊断优化经验直接赋能客户,只有这样才能将其作用最大化,规模化,可复制化,让用户真正简单方便的使用云计算。

 

我要申请CloudDBA免费体验

相关实践学习
如何在云端创建MySQL数据库
开始实验后,系统会自动创建一台自建MySQL的 源数据库 ECS 实例和一台 目标数据库 RDS。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
17天前
|
Prometheus 运维 监控
智能运维实战:Prometheus与Grafana的监控与告警体系
【10月更文挑战第26天】Prometheus与Grafana是智能运维中的强大组合,前者是开源的系统监控和警报工具,后者是数据可视化平台。Prometheus具备时间序列数据库、多维数据模型、PromQL查询语言等特性,而Grafana支持多数据源、丰富的可视化选项和告警功能。两者结合可实现实时监控、灵活告警和高度定制化的仪表板,广泛应用于服务器、应用和数据库的监控。
96 3
|
7天前
|
SQL 缓存 监控
大厂面试高频:4 大性能优化策略(数据库、SQL、JVM等)
本文详细解析了数据库、缓存、异步处理和Web性能优化四大策略,系统性能优化必知必备,大厂面试高频。关注【mikechen的互联网架构】,10年+BAT架构经验倾囊相授。
大厂面试高频:4 大性能优化策略(数据库、SQL、JVM等)
|
18天前
|
SQL 关系型数据库 数据库
国产数据实战之docker部署MyWebSQL数据库管理工具
【10月更文挑战第23天】国产数据实战之docker部署MyWebSQL数据库管理工具
58 4
国产数据实战之docker部署MyWebSQL数据库管理工具
|
8天前
|
运维 Ubuntu 应用服务中间件
自动化运维工具Ansible的实战应用
【10月更文挑战第36天】在现代IT基础设施管理中,自动化运维已成为提升效率、减少人为错误的关键手段。本文通过介绍Ansible这一流行的自动化工具,旨在揭示其在简化日常运维任务中的实际应用价值。文章将围绕Ansible的核心概念、安装配置以及具体使用案例展开,帮助读者构建起自动化运维的初步认识,并激发对更深入内容的学习兴趣。
29 4
|
9天前
|
存储 SQL 数据库
深入浅出后端开发之数据库优化实战
【10月更文挑战第35天】在软件开发的世界里,数据库性能直接关系到应用的响应速度和用户体验。本文将带你了解如何通过合理的索引设计、查询优化以及恰当的数据存储策略来提升数据库性能。我们将一起探索这些技巧背后的原理,并通过实际案例感受优化带来的显著效果。
27 4
|
9天前
|
SQL 缓存 监控
数据库性能优化指南
数据库性能优化指南
|
10天前
|
消息中间件 运维 UED
消息队列运维实战:攻克消息丢失、重复与积压难题
消息队列(MQ)作为分布式系统中的核心组件,承担着解耦、异步处理和流量削峰等功能。然而,在实际应用中,消息丢失、重复和积压等问题时有发生,严重影响系统的稳定性和数据的一致性。本文将深入探讨这些问题的成因及其解决方案,帮助您在运维过程中有效应对这些挑战。
17 1
|
13天前
|
缓存 监控 NoSQL
数据库如何进行性能优化?
【10月更文挑战第31天】数据库如何进行性能优化?
24 3
|
17天前
|
监控 关系型数据库 MySQL
数据库优化:MySQL索引策略与查询性能调优实战
【10月更文挑战第27天】本文深入探讨了MySQL的索引策略和查询性能调优技巧。通过介绍B-Tree索引、哈希索引和全文索引等不同类型,以及如何创建和维护索引,结合实战案例分析查询执行计划,帮助读者掌握提升查询性能的方法。定期优化索引和调整查询语句是提高数据库性能的关键。
83 1
|
17天前
|
Java 数据库连接 数据库
Java连接池在数据库性能优化中的重要作用。连接池通过预先创建和管理数据库连接,避免了频繁创建和关闭连接的开销
本文深入探讨了Java连接池在数据库性能优化中的重要作用。连接池通过预先创建和管理数据库连接,避免了频繁创建和关闭连接的开销,显著提升了系统的响应速度和吞吐量。文章介绍了连接池的工作原理,并以HikariCP为例,展示了如何在Java应用中使用连接池。通过合理配置和优化,连接池技术能够有效提升应用性能。
33 1