2017双11技术揭秘—双十一海量数据下EagleEye的使命和挑战

本文涉及的产品
Serverless 应用引擎免费试用套餐包,4320000 CU,有效期3个月
注册配置 MSE Nacos/ZooKeeper,118元/月
性能测试 PTS,5000VUM额度
简介: EagleEye作为阿里集团老牌的链路跟踪系统,其自身业务虽不在交易链路上,但却监控着全集团的链路状态,特别是在中间件的远程调用上,覆盖了集团绝大部分的场景,在问题排查和定位上发挥着巨大的作用,保障了各个系统的稳定性,为整个技术团队打赢这场战役保驾护航。

作者:王华锋(水彧)

背景

双十一一直是阿里巴巴集团每年要打的一场大战役。要打赢这场战役,技术上,不仅仅是几个应用、几个系统的事,也不是多少个开发+多少个测试就能完成的事,而是需要各大系统协同作战、每个应用各司其职、技术人员通力合作才能取得最终的胜利。

EagleEye作为阿里集团老牌的链路跟踪系统,其自身业务虽不在交易链路上,但却监控着全集团的链路状态,特别是在中间件的远程调用上,覆盖了集团绝大部分的场景,在问题排查和定位上发挥着巨大的作用,保障了各个系统的稳定性,为整个技术团队打赢这场战役保驾护航。


图1 EagleEye系统整体情况

近两年集团业务和规模始终保持着高速的增长,纵深上,交易量屡攀新高,双十一零点的交易峰值也再一次刷新了历史;横向上,集团涉及的行业和领域也不断的拓展,各行各业在不断加入阿里(高德、优酷、友盟及大麦等等),共同前进。

面对数据规模持续增加,如何应对在业务高速发展的背景下系统采集的数据量级的持续增长,如何在越来越大的数据规模面前保障EagleEye自身业务的稳定,成为EagleEye今年双十一面临的巨大挑战。


图2 EagleEye支持的业务情况


全链路压测一直是阿里巴巴集团保障双十一的大杀器之一,通过在线上环境全真模拟双十一当天的流量来检验各个应用系统的负载能力。EagleEye在全链路压测中承担了重要的责任,透传压测标记实现流量的区分,压测数据的收集与展现用以帮助业务方的开发同学发现及定位系统的问题。所以,保障全链路压测也是EagleEye的重要使命之一。

今年的EagleEye

无论是常态、全链路压测或者是双十一当天,EagleEye面临的主要问题是如何保障自身系统在海量数据冲击下的稳定性,以及如何更快的展现各个系统的状态及更好的帮助开发同学发现及定位问题。今年,EagleEye通过了一系列改造升级提高了系统的稳定性,实现了更好更快的辅助业务方定位及排查问题。


图3 系统架构图

计算能力下沉

早期的EagleEye在链路跟踪以及数据统计都是基于明细日志完成,实时采集全量的明细日志并在流计算中做聚合,随着业务量的增长,日志的数据量也在急剧上升,计算量也随之线性增长,资源消耗较高。而且在全链路压测或者大促期间,日志量会有明显的峰值,极有可能造成计算集群系统过载或者数据延迟甚至有可能导致数据的丢失。

为解决这类问题,最初的做法是采样,通过采样降低收集的日志量,从而稳定计算集群的负载及水位,保障EagleEye自身业务的稳定性,尽量减少业务峰值对我们的影响。但是带来的问题也是显而易见的,统计数据在计算时需要考虑采样率估算出真实的数据,在采集数据量较小且采样率较高的场景下导致聚合后的数据不准确,无法展现业务真实的状态,从而也就失去了其价值。

为彻底解决业务峰值对EagleEye计算集群的冲击,将部分实时计算逻辑下沉到业务方的机器中,使得业务量和所需采集的日志量解耦,保证计算集群的稳定性。具体实现是在业务方的机器上先将数据按照指定维度做聚合(一般是以时间维度),计算集群采集该统计数据后再次聚合,极大的稳定了计算集群的负载。


图4 计算能力下沉

计算能力下沉,也可以理解成将计算分布式化,消耗了业务方极小的一部分资源,保证了EagleEye集群的稳定性。而且,集群的计算量不再随着业务量的增长而增长,只随应用规模(应用数量、机器数量)和统计维度的增长而增长,不会再出现由于业务量的瞬间峰值导致计算机群的负载过高的问题,最终使得EagleEye在全链路压测和大促期间都能保持稳定水位,并且产出精准的数据。

场景化链路

EagleEye一直专注于中间件层面的调用,而阿里巴巴的业务量庞大,系统也比较复杂,所以各部分的功能划分比较清晰,中间件层面的一些数据比较难与业务数据相关联,对于链路跟踪、问题定位及针对指定业务场景的容量规划等都有一些难度。

今年,EagleEye推出场景化链路的功能,开放了添加业务场景标的能力,类似于压测流量打压测标,对指定的业务打上对应的业务场景标签,并关联该标签下所有的中间件调用(包括服务、缓存、数据库和消息等),一是可以帮助业务方开发同学更好地区分某个RPC流量中的业务语义,二是可以清晰的梳理出某个业务场景标下对应的RPC流量,对分析一些关键指标,如缓存命中率,数据库RT等有较大的帮助。


图5 流量场景标


基于此数据,也可以更好的复盘全链路压测数据。在压测之前(也可以在常态下)对关键业务打上指定的标签,压测后通过各业务场景的流量得出对应的性能基线,更好的定位核心链路中的问题及性能拼劲,提高压测的效率和价值。

精细化监控

EagleEye的链路数据对于问题的发现和定位有着至关重要的作用,更加丰富的数据形式和展现对提高发现的效率有明显的提升。

在整个双十一备战过程中,遇到并解决了很多疑难杂症。其中,单机问题占了很大的比例。在分布式系统中,单机问题是比较常见的一类问题, 由于此类问题往往与业务代码不直接相关,与容器或者机器有一定的关联性,且出现的概率较小,有一定的随机性,导致该问题往往比较难排查。实际业务的表现可能是RT的抖动,也可能是小概率的错误等等。

EagleEye的调用链虽然可以很快定位此类问题,但是调用链是站在单次请求的视角上,在定位到某个IP之后很可能还需要再分析更多的数据才能做决策,针对此类的问题,EagleEye提供了错误TopN分布以及系统热点图等功能,帮助业务方开发同学快速定位问题。针对单机故障,往往对于整体的指标影响不大,通过应用级别的监控数据比较难定位,EagleEye在流计算中统计了应用各个机器的错误情况,汇总并排序出Top10的机器,一旦出现单机故障,可以很明显的定位到具体的IP,并且根据该IP对应的错误数量可以很快做出决策,缩短了开发同学排查问题的时间。系统热点图在压测和大促期间对系统健康度的表现非常清晰,一是可以清晰看到是否存在离群点的机器,二是可以验证流量的去向是否正确。


图6 系统热点图

更丰富的生态

在阿里巴巴,EagleEye是一款问题排查的利器,一直服务于业务方的同学帮助其快速发现并定位问题,降低故障的持续时间,提升开发及运维效率。其实,EagleEye底层还蕴含着一份海量的数据,在近一年中,我们不断地利用及挖掘这份数据的意义,希望发挥其更大的价值,同时也希望基于这些数据建立一套生态体系,帮助用户更好发展业务,期间也孕育出很多有价值的产品,为集团的技术发展打下了基础。

天秤项目:天秤基于EagleEye的场景数据及其中间件、系统指标等监控数据,结合其他多款监控产品构建一个系统稳定性解决方案,意在解决问题快速发现和精准定位、大促常态化、压测常态化等问题。

尖兵计划 – 更轻量化的全链路压测:尖兵计划基于EagleEye的中间件、系统指标及压测数据,实现常态化全链路压测和问题发现,是保障双十一及全链路压测顺利的大杀器之一,相比去年八次全链路压测,今年环境加倍复杂,但是只需要三次全链路压测就完成目标,为集团节省上千个人力,大幅提升交付上线质量和大促效率。

精准回归:依托EagleEye调用链采集与计算的能力,实现了测试用例精准推荐的效果,并在部分应用的精准测试中节约了50%~70%的测试时间。精准测试通过EagleEye采集,数据回流的方案的输出,在大规模应用上(千万链路)做到了测试用例与应用代码链路的准实时生成。

天图项目:天图依赖了部分EagleEye的链路数据,为用户提供面向复杂业务链路、高度分布式架构下的Application Performance Management (APM)方案,以全面、实时、可视化、智能的方式让你快速了解应用和业务链路的全貌。

结语

今年的双十一是一次完美的双十一,可以说是技术团队的大获全胜,EagleEye在这次大考中也交出了一份近乎完美的答卷,无论是在全链路压测中还是双十一当天,系统的稳定性和数据的实时性都达到了预期,为业务方的提供了强有力的支持,提高了问题排查的效率。

但是,未来的路还很长,智能化的发展脚步越来越快,业务方对EagleEye的数据质量的要求也越来越高,今后EagleEye会专注于架构的演进和智能化的推进,进一步提高问题定位的效率,更好的支撑起基于链路数据的一片生态。

相关实践学习
通过性能测试PTS对云服务器ECS进行规格选择与性能压测
本文为您介绍如何利用性能测试PTS对云服务器ECS进行规格选择与性能压测。
相关文章
|
存储 弹性计算 监控
无例可循,双十一倒逼出中国互联网「三高架构」
无例可循,双十一倒逼出中国互联网「三高架构」
128 0
|
供应链 算法 安全
金融业务架构的技术挑战
金融行业赚钱的方法有很多,最核心的原理只有:利用信息不对称赚钱。 信息有很多不对称方式,用到的系统工具也都不一样。
154 0
|
存储 缓存 关系型数据库
淘宝应对"双11"的技术架构分析
原文地址:http://kb.cnblogs.com/page/193670/     双“11”最热门的话题是TB ,最近正好和阿里的一个朋友聊淘宝的技术架构,发现很多有意思的地方,分享一下他们的解析资料:   淘宝海量数据产品技术架构   数据产品的一个最大特点是数据的非实时写入,正因为如此,我们可以认为,在一定的时间段内,整个系统的数据是只读的。
1579 1
|
人工智能 Cloud Native 搜索推荐
直面最大挑战双11 阿里数据中台为商家带来确定性保障
2020双11将成为史上最具科技含量的一届双11,数据中台则是确定性的创新增长引擎。
7613 0
直面最大挑战双11 阿里数据中台为商家带来确定性保障
|
运维 Cloud Native 搜索推荐
打造数字化服务能力,中国联通如何借助云原生技术实现增长突围?
中国联通与阿里云结合阿里云原生 PaaS、阿里飞天操作系统、阿里云原生数据库以及中国联通天宫平台,共同研发运营商级专有云平台“天宫云”,支撑中国联通核心业务应用。
打造数字化服务能力,中国联通如何借助云原生技术实现增长突围?
|
双11
干货分享!2015“双十一”背后的关键技术盘点
云栖社区通过集结2015年双十一期间从应用服务、中间件、数据库到基础设施等等各层技术人员的一线实战技术分享总结,试图让读者看到双十一背后的人和事,也希望更多技术人从中汲取有益的经验,系列文章将陆续放出。
33507 0
|
Kubernetes 双11 Docker
精品问答】蚂蚁双11核心技术:万级规模 K8s
1、Kubernetes 集群管理系统的设计模式是怎样的?https://developer.aliyun.com/ask/257839 2、Kubernetes 集群管理系统的核心组件集群终态保持器怎样?https://developer.
1589 0
|
存储 数据库 双11
盘点:2018年双11背后的蚂蚁核心技术
一起来探索蚂蚁双11的神秘技术之旅吧!
2344 0