1秒钟14万笔!阿里双11刷新交易峰值世界记录

简介: 原文地址: http://cloud.51cto.com/art/201511/496957.htm 11月11日下午,阿里巴巴集团首席风险官、技术战略执行小组组长刘振飞在“双11”媒体见面会上透露,今年的系统支撑能力再创新高,订单创建峰值能力突破了每秒钟14万笔,支付宝的支付峰值达到了每秒8.59万笔,远远领先世界纪录。

原文地址: http://cloud.51cto.com/art/201511/496957.htm

11月11日下午,阿里巴巴集团首席风险官、技术战略执行小组组长刘振飞在“双11”媒体见面会上透露,今年的系统支撑能力再创新高,订单创建峰值能力突破了每秒钟14万笔,支付宝的支付峰值达到了每秒8.59万笔,远远领先世界纪录。

数据显示,自阿里巴巴首创“双11”购物狂欢节以来,交易额、交易峰值、支付峰值这三项指标连续7年一路走高:交易额从2009年的0.6亿元人民币狂飙至去年的571亿元,而这一纪录今年在11:50分就已被打破。更能体现技术能力的订单创建峰值指标则从2009年每秒钟400笔飙升至14万笔,支付峰值从每秒200笔提高到8.59万笔。从2009年到2015年,“双11”订单创建峰值增长了350倍,支付峰值增长了430倍。

 

资料显示,Visa最新的实验室测试数据是每秒5.6万笔,另一家全球性支付清算平台MasterCard的实验室测试数据为每秒4万笔,在实际应用中,Visa处理的峰值为每秒1.4万笔。支付宝此次创造的纪录比Visa快大约6倍。

从2009年开始,刘振飞连续七年担任双十一技术总指挥,他表示,“在交易和支付峰值不断攀高的情况下,可以做到平稳度过峰值,这背后体现了阿里巴巴强大的技术积累和组织能力,这不仅是阿里的骄傲,更是中国互联网的骄傲。”

为了保障“双11”,阿里内部进行了大量的技术研发工作,“异地多活”就是重要的创新之一。所谓异地多活,是指分布在多地的数据中心像一个数据中心一样工作。系统可以根据业务需要,在多个数据中心之间调度流量,弹性利用服务器资源。在极端情况下,如果某一处数据中心出现故障完全不可用,也可以迅速把流量全部切换到另外的数据中心。整个过程不会对业务造成任何影响,用户也几乎没有感知。

据阿里巴巴技术保障部研究员毕玄介绍,早在去年“双11”,阿里巴巴就已经实现了交易系统的“异地双活”。和去年“双活”相比,今年最大的变化有两点:一是同时实现了交易和支付的“多活”;二是异地数据中心的最远距离超过1000公里,这意味着阿里巴巴具备了在全国任意节点部署交易系统的能力。

“这就像为1000公里外空中飞行的飞机更换引擎。不仅不能影响飞行,飞机上的乘客也不能有感觉。”毕玄表示,尤其在支付宝这样高度复杂与严谨的金融系统中,实现1000公里以上的“异地多活”能力,在全球也绝无先例,完全颠覆了传统金融的灾备概念。

公开资料显示,全球能够做到异地多活的只有少数几家互联网巨头如Google、Facebook,但无论是搜索还是社交场景,对数据同步性、一致性的要求远不如电商场景苛刻。毕玄表示,“双活”和“多活”改造中,阿里碰到的所有的问题都没有可参考的对象,包括开源软件都不涉足这个领域。异地多活是阿里完全自研的技术。

目前,阿里巴巴正在将这一技术逐步开放。比如,可以在较长延时的情况下解决多点数据同步的技术,已经通过阿里云数据传输产品(Data Transmission)对外开放,能够让云用户轻松实现远距离、毫秒级异步数据传输。

除异地多活外,全球最大混合云架构、OceanBase自研数据库等也是今年“双11”的技术亮点。

目录
相关文章
支付系统39----支付宝支付,定时查单,每隔30秒执行1次,查询超过5分钟,并且未支付的订单
支付系统39----支付宝支付,定时查单,每隔30秒执行1次,查询超过5分钟,并且未支付的订单
|
7月前
|
小程序 vr&ar
一个小动作,点击量上涨17倍,有小程序就能用!
一个小动作,点击量上涨17倍,有小程序就能用!
64 11
|
存储 Cloud Native 前端开发
12-如何抗住双11一天几十亿的订单量?JVM该如何设置内存?
通过之前相关JVM的基础知识学习我们可以结合一些实际生产案例来进行结合巩固和说明,我们在上线一个生产系统的时候,针对预估的并发压力,到底应该如何合理的给出一个未经过调优的比较合理的初始值。 另外我们会分析各种参数在设置的时候有哪些考虑的点,Java堆内存到底需要多大?新生代和老年代的内存分别需要多大?永久代和虚拟机栈分别需要多大?这些我们都会结合案例来一步一步的分析。 注意:JVM参数到底该如何设置,一定是根据不同的业务系统具体的一些场景来调整的,不是说有一个通用的配置和模板,照着设就没问题了,这个思路是肯定不对的,一定要结合案例和业务场景来分析。
158 0
12-如何抗住双11一天几十亿的订单量?JVM该如何设置内存?
|
存储 运维 负载均衡
邓荣伟:稳定支撑每秒百万笔支付请求,支付宝数据库架构的过去、现在与未来
8 月 10 日,2022 OceanBase 年度发布会在京沪深三地同时召开,支付宝资深数据库专家邓荣伟在会上分享了《从“小”到“大”,支付宝分布式升级之路》的主题演讲,为我们带来了支付宝的架构演进以及上线 OceanBase 的故事。
548 0
邓荣伟:稳定支撑每秒百万笔支付请求,支付宝数据库架构的过去、现在与未来
|
存储 缓存 分布式计算
腾讯自选股如何实现单位小时内完成千万级数据运算
腾讯自选股 App 在增加了综合得分序的 Feed 流排序方式:需要每天把(将近 1000W 数据量)的 feed 流信息进行算分计算更新后回写到数据层。目前手上的批跑物理机器是 16 核(因为混部,无法独享 CPU),同时剩下可用内存仅 4-8G。显而易见的是:我们可以申请机器,多机部署,分片计算或者通过现有的大数据平台 Hadoop 进行运算都看似可以解决问题。但是由于更新 feed 流的操作需要依赖下游服务(这里暂且叫 A,后续文中提到下游服务均可称 A 服务),而下游的服务 A-Server 本身是个 DB 强绑定的关系,也就说明了下游的服务瓶颈在于 DB 的 QPS
465 0
腾讯自选股如何实现单位小时内完成千万级数据运算
|
Web App开发 编解码 移动开发
1.5小时成交破20亿!淘系又一次稳稳扛住了大流量!
6月1日零点,2020年天猫618强劲开局。 开场刚过1小时29分,熬夜看淘宝直播的“宝宝们”带来的成交额达到20亿元,远超去年同期!
1.5小时成交破20亿!淘系又一次稳稳扛住了大流量!
|
存储 SQL 缓存
深度 | 每秒1.4亿次!再度刷新TPS记录的PolarDB如何应对双11“尖峰时刻”?
2020年是云原生数据库PolarDB全面支撑天猫双十一的第二年,天猫交易、买家、卖家以及物流等系统在双十一期间基于PolarDB为亿万客户提供了顺滑的体验。同时,PolarDB还刷新了去年由自己创造的数据库处理峰值(TPS)纪录,今年TPS峰值高达1.4亿次/秒,较去年提升了60%。
14220 0
深度 | 每秒1.4亿次!再度刷新TPS记录的PolarDB如何应对双11“尖峰时刻”?
|
数据库 关系型数据库 分布式数据库
|
新零售 架构师 双11
2684亿成交!每秒订单峰值54.4W!这样的团队你想加入吗?
阿里巴巴新零售技术事业群淘系技术部招人啦~
1107 0
2684亿成交!每秒订单峰值54.4W!这样的团队你想加入吗?