支付宝“咻一咻”峰值达到177亿次/分钟,技术如何支撑?

简介: 猴年春节最热闹的就是支付宝“咻一咻”。外人看热闹,内行看门道。三十晚上i天下网商发了一篇文章《前两轮互动数达去年春晚16倍,支付宝技术怎么做到的? 》,其中的一些数据还是首次对外公布。相关技术干货,我们云栖社区已经锁定专家来约稿了。大家希望看哪些方面的内容?欢迎留言。
猴年春节最热闹的就是支付宝“咻一咻”。外人看热闹,内行看门道。三十晚上i天下网商发了一篇文章《前两轮互动数达去年春晚16倍,支付宝技术怎么做到的? 》,其中的一些数据还是首次对外公布。相关技术干货,我们云栖社区已经锁定专家来约稿了。
已经邀请四位专家来分享:
  • 2016支付宝春晚红包背后的技术支撑
  • 支付宝“咻一咻”分布式架构技术实践
  • 安全设计与挑战
  • 参加2016支付宝春晚红包的企业如何应对高峰技术挑战
大家还希望看哪些方面的内容?欢迎留言。

凝视屏幕,念念有词,指如疾风……2月7日晚,20点36、21点05、22点12,随着春晚主持人的一次次口播,全家人掏出手机,打开支付宝,在一片咻咻的声响中,20:36分,第一轮咻一咻开始,此轮结束时,互动次数就达到了677亿次,而去年春晚整场的总互动次数是110亿次,也就是说,今年春晚第一轮5分钟互动的互动次数已经超过了去年春晚四小时的累计互动次数!
而到第二轮结束,累计互动次数已经达到1808亿次,是去年的16倍。在20点38分,用户的参与热情达到顶峰,“咻一咻”峰值达到177亿次/分钟。
 
2062db00899e999d778b855a21781bc73745cd1c

即使我们用20分贝(轻声细语的音量)来计算“咻”的声量,当时,全国咻一咻的声音叠加,也相当于135亿个鞭炮同时燃放的声音,咻一咻成为年的声音。

这一连串数字背后,是1月28日起,10天内,支付宝的一次脱胎换骨的变化,从4亿用户熟悉的支付工具,转身成为一个生活互动平台。

蚂蚁金服支付事业群技术部研究员倪行军向记者表示,跑在金融云上的春晚红包背后是一套轻巧,灵便,弹性十足的分布式技术架构。只需要调用的消息服务器的相关应用,迅速扩容,只要加机器就可以满足数倍涌入的需求量,这种方式的成本很低,系统本身不受压迫,它可以全自动、标准化操作。

用户的“装红包—发红包—拆红包”,简单的三次点击,背后是整个系统的经受天量访问的大考。

蚂蚁金服支付事业群技术部研究员倪行军向记者表示,“三次点击中最难的就是发红包,难点在于将红包准确发给准确的人。”

传统互联网红包发放人数的上限是200人,但支付宝红包打破了这一限制。而这一次更难的还不是这些。最终大量用户会分享了一个2.15亿的超级红包,这才是对系统最大的考验。

参与分红包的人数越多,对系统的要求及技术能力要求越高。背后需要大数据的海量、实时的处理能力,在保障资金及账户安全的情况下,实时完成百毫秒内用户无感知的风控审核,完成零误差的账户数、金额数的分发。

“在分子不变的情况下,分母越大,难度加倍。”倪行军表示。

这意味着,在除夕晚23点11分之前,无数用户在不断互动,直到除夕晚23点11分前一秒,支付宝后台才清楚,有多少人,哪些人可以平分2亿元现金。用户的每一次交换,询问、分享,都是向服务端发出不同请求,需要服务端承接海量的互动请求,瞬间识别并实时计算,实时清洗出无效数据。

“红包的发放意味着业务量和平时相比,瞬间有了千百倍的爆增。更难的是用户的行为并不完全按照我们之前的预期,幸运的是,我们有金融云的支持。”倪行军表示。

事实上,春晚这个超级IP与互联网的结合是央视近年来最闪亮的创新之一。今年的春晚创新了新的形式,通过口播咻一咻,将更多年轻的观众拉回到电视机面前。

观众通过双屏互动,连接世界,让更多青年人在团圆时找了分享的话题,这就是电视+与“互联网+”的切合点,也是媒体融合的入口。

 
目录
相关文章
|
9月前
|
缓存 NoSQL 关系型数据库
性能第三讲:百万级QPS,支撑淘宝双11需要哪些技术
性能第三讲:百万级QPS,支撑淘宝双11需要哪些技术
656 0
|
消息中间件 缓存 NoSQL
如何设计电商行业亿级用户秒杀系统
电商行业在近十几年中,经历过大大小小的促销活动和秒杀上百次,每次做秒杀瞬时访问量会翻数十倍,甚至数百倍。对系统架构是巨大的考验,期间也曾经历过系统宕机,甚至整体雪崩。那么我们怎么设计秒杀系统,才能保证秒杀系统的高性能和稳定性,同时还要保证日常业务不受影响呢? 先看看秒杀场景特点。
如何设计电商行业亿级用户秒杀系统
|
缓存 监控 NoSQL
百万级QPS,支撑淘宝双11需要哪些技术
又到一年双11,相信大部分同学都曾经有这个疑问:支撑起淘宝双11这么大的流量,需要用到哪些核心技术?性能优化系列的第二篇我想跟大家探讨一下这个话题。
859 0
百万级QPS,支撑淘宝双11需要哪些技术
|
人工智能 弹性计算 自然语言处理
双十一1682亿的背后,引人深思
双十一1682亿的背后,引人深思
150 0
双十一1682亿的背后,引人深思
|
Cloud Native NoSQL 关系型数据库
阿里云自研数据库支撑双11,助力电商客户订单峰值突破每秒20万笔
阿里云自研数据库产品家族全面支撑双11活动,帮助客户从容应对流量高峰。
480 0
阿里云自研数据库支撑双11,助力电商客户订单峰值突破每秒20万笔
|
运维 监控 前端开发
函数计算助力高德地图平稳支撑亿级流量高峰
2020 年的“十一出行节”期间,高德地图创造了记录 ——截止 2020 年 10 月 1 日 13 时 27 分 27 秒,高德地图当日活跃用户突破 1 亿,比 2019 年 10 月 1 日提前 3 时 41 分达成此记录。 期间,Serverless 作为其中一个核心技术场景,平稳扛住了流量高峰期的考验。值得一提的是,由 Serverless 支撑的业务在流量高峰期的表现十分优秀,每分钟函数调用量接近两百万次。这再次验证了 Serverless 基础技术的价值,进一步拓展了技术场景。
5032 1
函数计算助力高德地图平稳支撑亿级流量高峰
|
存储 架构师 机器人
菜鸟核心系统全面上云,业内首次实现日均处理10亿包裹的技术能力
据悉,今年菜鸟核心系统还将首次支持海外11个国家的双11物流业务。阿里云在全球21个区域部署有上百个云数据中心,其中新加坡云数据中心不到一个月就完成了菜鸟平台基础设施的搭建,将在本地为菜鸟提供网络优化和云计算服务,助力Lazada等海外电商平台将高峰期包裹处理能力提高10倍,保障日均上亿级的包裹量运行。
菜鸟核心系统全面上云,业内首次实现日均处理10亿包裹的技术能力
|
双11
96秒100亿!哪些“黑科技”支撑全球最大流量洪峰?| 双11特别策划之二
每秒订单峰值54.4万笔!这项“不可思议”的挑战背后是众多阿里“黑科技”的支撑,究竟是哪些技术撑起了如此强大的流量洪峰?开发者社区双11特别策划带你揭秘——收纳阿里巴巴集团CTO张建锋精彩演讲,淘系技术、支付宝“不为人知”的黑科技,更有超燃阿里工程师纪录片《一心一役》等你发现!
21458 0
月活用户达7.55亿,阿里淘系如何在后流量时代引爆用户增长?
「淘系技术嘉年华」用户增长突围之夜~阿里巴巴是如何用最少的成本获取流量,真正将用户留存下来?如何用精益化方式提升转化,把现有流量快速变现?如何打破流量瓶颈,实现持续增长?又是如何发掘不同用户群的核心需求,围绕核心需求打造用户持续增长方法论的呢?
3217 0
月活用户达7.55亿,阿里淘系如何在后流量时代引爆用户增长?