“史上最稳定双11”背后的全链路验收实践

简介: 19年双十一来临之际,让我们来看看18年双十一的成果,验收过程中发现150多个问题,验收内容基本涵盖了所有的大促活动,双十一四个端主版本均达到稳定性目标。从整体上看,今年的客户端稳定性相比去年有飞跃式提升。

一、背景

  • 2017.11.01预热期开始,各个端闪退率均有不同程度的上涨
  • 紧急成立专项解决,数据逐渐回落
  • 主要原因为大量富媒体上线导致内存水位超高,客户端被系统杀死
  • 已知的各个业务上线前均有做过性能验收

大促前验收场景均为单点,而真实用户使用路径则较为复杂,即没能构建出真实的引起性能问题的场景
image.png

下一秒会发生什么?氛围能否会正常切换,隐藏的价格是否会出现,定时出现的模块能否透出?
下一秒客户端的稳定性如何呢?在各种大图片,会场,动画,动效,游戏中徜徉的用户,内存还好吗?手机滚烫吗?会崩溃吗?

带着这些疑虑在0点后的真实场景进行验证的我们,需要在真实情况到来之前拿到一个更加确定的答案。

那如果想在真实的环境提前看到未来的场景,该如何做?

二、时间穿越

我们构造出一个未来的真实的环境,接下来在测试以及验收的过程中,通过进入这个环境,可以做到在真实的未来场景中进行测试和验收,并且通过流程化、卡口化的方式保证无遗漏,辅助自动化驱动,驱动过程数据采集以及问题分析,给出在真实场景下的结果

image.png

时空穿越的整体架构,链路长,涉及环节多,但是使用起来非常简单,只需要手淘客户端扫码添加白名单,之后将环境时间更改到目标时间,稍作等待,即可生效

image.png

在18年双十一的真实使用过程中,我们从造势、预热、正式三个关键的时间节点入手,利用时空穿越进行了针对客户端页面维度以及链路维度的验收:

image.png

在平稳度过大促之后,我们开始考虑如何将这个验收能力应用在日常的客户端质量保障中,于是开始了客户端验收常态化的项目

三、客户端验收

这是手淘客户端验收的流程图

image.png

四、结果

整个客户验收给18年双十一带来了比较好的成果,验收过程中发现150多个问题,验收内容基本涵盖了所有的大促活动,双十一四个端主版本均达到稳定性目标。从整体上看,今年的客户端稳定性相比去年有飞跃式提升。被誉为历年客户端最佳双十一

文章来源:AlibabaTechQA
开发者社区整理

相关文章
|
11月前
|
安全 测试技术 持续交付
闲鱼技术2022年度白皮书-技术质量主题-这半年我做交易链路自动化回归的那些事儿(下)
闲鱼技术2022年度白皮书-技术质量主题-这半年我做交易链路自动化回归的那些事儿
182 0
|
12月前
严选售后服务架构演变之路:把复杂业务做简单(1)
严选售后服务架构演变之路:把复杂业务做简单
|
12月前
严选售后服务架构演变之路:把复杂业务做简单(2)
严选售后服务架构演变之路:把复杂业务做简单
111 0
|
2天前
|
Java Go 双11
“天猫双11”背后的流量治理技术与标准实践
一年一度的天猫双11 已经拉下帷幕,大家在疯狂买买买的过程中一定会有疑问:如何保障微服务在双十一的超级峰值下也能如丝般顺滑稳定?这背后的技术原理是怎样的,有没有一些最佳实践与标准?这篇文章就为大家介绍如何结合 Sentinel 与 OpenSergo 玩转双十一背后的流量治理技术与标准。OpenSe...
“天猫双11”背后的流量治理技术与标准实践
|
测试技术
如何保障研发质量不踩坑?阿里技术专家教你几招
面对自动化测试成本高、测试不稳定、测试无法严控发布质量等常见研发过程中的测试问题时,企业如何避免?如何保障研发质量?阿里巴巴研发效能事业部-研发协同平台高级技术专家李帅(花名焦霸),通过阿里巴巴实践经验总结,为大家支招,并提供详细可落地的解决方案。
6840 0
|
存储 缓存 关系型数据库
淘宝应对"双11"的技术架构分析
原文地址:http://kb.cnblogs.com/page/193670/     双“11”最热门的话题是TB ,最近正好和阿里的一个朋友聊淘宝的技术架构,发现很多有意思的地方,分享一下他们的解析资料:   淘宝海量数据产品技术架构   数据产品的一个最大特点是数据的非实时写入,正因为如此,我们可以认为,在一定的时间段内,整个系统的数据是只读的。
1493 1
|
缓存 供应链 调度
系统从初期到支撑亿级流量,都经历了哪些架构上的演变?
随着互联网的发展,互联网企业的业务也在不断的飞速发展,进而导致系统的架构也在不断的发生着变化。总体来说,系统的架构大致经历了:单体应用架构—>垂直应用架构—>分布式架构—>SOA架构—>微服务架构的演变。当然,很多互联网企业的系统架构已经向Service Mesh(服务化网格)演变。今天,我们就一起来聊聊关于系统架构的演变这个话题。
158 0
系统从初期到支撑亿级流量,都经历了哪些架构上的演变?
|
测试技术 视频直播 双11
干货分享:细说双 11 直播背后的压测保障技术
阿里云 PTS 站在双 11 巨人的肩膀上,是阿里全链路压测的延伸。PTS 通过伸缩弹性,轻松发起用户百万级别的流量,免去机器、人力成本;PTS 对流量的控制,能够实时脉冲,精准控制; 是应对视频直播快速攀升的流量脉冲的优秀方案。
2568 0
干货分享:细说双 11 直播背后的压测保障技术
|
存储 缓存 中间件
阿里如何做好双11技术保障?大队长霜波分享4点经验
为什么说双11是阿里每年技术保障稳定性最困难的一次?50多个BU一起加入双11,怎么组织和运营?为了保障双11的顺利进行,又有哪些备战方案以及创新技术?在由阿里云CIO学院主办的【2020中国企业数字创新峰会】上,阿里巴巴双11技术大队长、技术安全生产负责人、CTO线技术风险部资深总监陈琴(霜波)从组织和运作、备战方案和技术、当天保障以及复盘总结四个方面分享了阿里巴巴在双11技术保障上的实践经验。
阿里如何做好双11技术保障?大队长霜波分享4点经验

热门文章

最新文章