twitter系统架构分析

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: 58沈剑:原文作者不容易,收集了好些资料,此文以作阅读笔记。

image.png

twitter系统架构分析

(一)twitter的核心业务

twitter的核心业务,在于following和be followed:
(1)following-关注
进入个人主页,会看到你follow的人发表的留言(不超过140个字),这是following的过程;
(2)followed-被关注
你发布一条留言,follow你的人将看到这条信息,这是be followed的过程;

(二)twitter的业务逻辑

twitter的业务逻辑也不复杂
following业务,查follow了哪些人,以及这些人发表的留言;
followed业务,前端js轮询后端,看follow了的人有没有新留言,有则更新(更新及时性取决于轮询时间);

(三)三层架构(three-tier architecture)

网站的架构设计,传统的做法是三层架构,所谓“传统”不意味着“过时”,新潮的技术不成熟,传统的路子更稳健。
(1)表示层(presentation tier):apache web server,主要任务是解析http协议,将请求分发给逻辑层;
(2)逻辑层(logic tier):mongrel rails server,利用rails现成的模块,降低工作量;
(3)数据层(data tier):mysql;

数据层先来吧:
twitter的核心是(1)用户;(2)消息;(3)用户关系;
围绕这几个核心,其核心数据的schema设计:
(1)用户表user
id, name, pass, status, …
(2)消息表msg
msgid, author_id, msg, time, …
(3)用户关系表relation
id, following_ids, followed_ids

逻辑层:
当用户发布消息时,依次执行:
(1)存消息至msg表;
(2)查用户relation表,找出其followed_ids;
(3)获取followed_ids中用户的状态;
(4)在线的ids,将消息push进一个队列queue;
(5)queue中的msg,更新ids的主页;
这里面要用到队列,其实现方式有很多种,例如apache mina,twitter团队自己实现了一个kestrel。

表示层:
表示层的主要职能有2个:
(1)http协议处理(http processor);
(2)分发器(dispatcher);
当然,访问twitter的不仅仅是浏览器,可能还有手机,由于可能存在其他协议,故可能存在其他processor。

无论如何,架构框架清晰如下:

image.png

图1:架构版本1

(四)cache=cash即缓存等于收入

cache的使用对大型网站架构至关重要,网站响应速度是影响用户体验最明显的因素,而影响响应速度最大的敌人又是磁盘io。
twitter工程师认为,良好体验的网站平均响应时间应该在500ms左右,理想的时间是200-300ms。
关于cache的使用,是twitter架构的一大看点,带cache的架构清晰如下:

image.png

图2:带cache架构版本2

哪里需要cache?IO越频繁的地方,越需要cache。
数据库是IO访问最频繁处,三大核心表是否有必要放入内存中?
twitter的做法是,将表拆分,将其中访问最频繁的字段装入cache。
(1)vector cache and row cache即数组cache与行cache
vector cache:新发表消息的msgids,相关作者的ids,这些id的访问频率很高,存放它们的cache称为vector cache;
row cache:消息正文的行cache;
内存有限的情况下,优先vector cache,实际结果vector cache的命中率是99%,row cache为95%;

(2)fragment cache and page cache
访问twitter的用户除了网页(web通道),还有手机(API通道),而后者的比例占总流量的80%-90%。
mysql cache之外,cache的重心会在API通道上。
手机屏幕的主体,是一屏一屏的消息,不妨把整个页面分割成若干局部,每个局部对应一些/一条消息,这些就是fragment。
人气高的作者,缓存其页面的fragment,可以提高读取其发布消息效率,这就是fragment cache的使命。
人气旺的作者,人们也会访问其主页,这就是page cache的使命。
实际结果,fragment cache的命中率为95%,page cache为40%。
虽然page cache的命中率低,但由于是访问主页,其占用的空间是很大的,为了防止两种cache相互影响,这两种cache需要部署在不同的物理机器上。
twitter的fragment cache和page cache都是使用的memcached。

(3)http accelerator
web通道的缓存问题也需要解决,分析之后,web通道的压力主要来自搜索。
面临突发事件时,读者们会搜索相关信息,而不会理会这些信息的作者是不是自己follow的那些人。
为了降低搜索压力,可以将搜索关键词与搜索内容cache起来,这里,twitter的工程师使用了varnish。
有趣的是,varnish通常部署在web server外层,先访问varnish,其中没有先关的内容,才访问web server;
twitter的工程师却将varnish放在apache web server的内层,原因是他们认为varnish操作复杂,担心varnish崩溃造成系统的瘫痪,故采用了这种保守型部署方式。
twitter没有公开varnish的命中率,他们声称,使用了varnish之后,整站的负载下降了50%。

(五)抗洪需要隔离

twitter架构的另一大看点是其消息队列:隔离用户的操作,将流量高峰摊平。
餐厅客满时,对于新来的顾客,虽然不能服务,但不是拒之门外,而是让他们现在休息厅等待。
用户访问twitter时,接待他的是apache web server,而apache不能接待无限多的用户。
2009年1月20日,奥巴马发表就职演说,twitter流量猛增,此时如何是好。
面对洪峰,如何保证网站不奔溃?迅速接纳,但推迟服务。
apache收到请求,转发给Mongrel,由Mongrel负责实际处理,apache则腾出手来,迎接下一位用户。
但apache能够接待的用户数总是有限的,它的并发数受apache能够容纳的工作进程数量,这里不细究apache内部原理,图如下:

image.png

图3:apache内部架构

(六)数据流与控制流

快速接纳,推迟服务,只是缓兵之计,目的是让用户不至于收到503(service unavailable)。
真正的抗洪能力,体现在蓄洪与泄洪两个方面:
(1)twitter有庞大的memcached集群,能大容量蓄洪;
(2)twitter自己的kestrel消息队列,作为引流泄洪手段,传递控制指令(引流和渠道);
洪峰到达时,twitter控制数据流,将数据及时疏散到多个机器,避免压力集中,造成系统瘫痪。
下面举例说明twitter内部流程,假设有两个作者,通过浏览器发消息,一个读者也通过浏览器阅读他们的消息。

image.png

图4:twitter流

(1)登陆apache web server,apache分配一个工作进程为其服务,登陆,查id,写cookie等;
(2)上传新写的消息,把作者id,消息等转发给Mongrel,apache等待Mongrel回复,以便更新作者主页,将新写的消息更新上去;
(3)Mongrel收到消息后,分配一个msgid,将其与捉着id等缓存到vector memcached上去;
同时,Mongrel让vector memcached查找作者被哪些人follow,缓存如果没有命中会去后端mysql查找,并入cache;
读者ids会返回给Mongrel,Mongrel把msgid与短信正文缓存至row memcached;
(4)Mongrel通知kestrel消息队列服务器,每个作者及读者都有一个队列(没有则创建);
Mongrel将msgid放入读者的队列,以及作者本人的队列;
(5)某一台Mongrel,它可能正在处理某一个id的队列,就会往返回该id用户的主页上添加上此条信息;
(6)Mongrel将更新后作者的主页给前端等待着的apache,apache则返回浏览器。

(七)洪峰与云计算

不细说了,洪峰扛不住时,只能加机器。
机器哪里来?租云计算平台公司的设备。
当然,设备只需要在洪峰时租用,省钱呀(@58沈剑 疑问:twitter怎么知道什么时候是洪峰?)。

(八)push与pull的折衷

可以看到,Mongrel的工作流程:
(1)将相关ids放入vector memcached和row memecached就算消息发布成功,而不负责mysql数据库的存入;
(2)将相关msgid放入kestrel消息队列就算消息推送成功;
Mongrel没有使用任何方式去通知作者、读者,让他们重新拉取消息。
上述工作方式,反映了twitter架构设计“分拆”的理念:
(1)将一个完整的流程分拆成独立工作的子流程,一个工作可以由各个服务负责(三层架构本身是一种分拆);
(2)多机器之间协作,细化数据流与控制流,并强调其分离;

twitter业务流程的分隔,是一种事件驱动式的设计,主要体现在两个方面:
(1)Mongrel与mysql的分离,前者不直接插手mysql的操作,而委托memcached全权负责;
(2)上传、下载逻辑分离:只通过kestrel队列来传递指令;

相关实践学习
如何在云端创建MySQL数据库
开始实验后,系统会自动创建一台自建MySQL的 源数据库 ECS 实例和一台 目标数据库 RDS。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
6月前
|
消息中间件 存储 Kafka
【Kafka】Kafka 架构设计分析
【4月更文挑战第5天】【Kafka】kafka 架构设计分析
|
2月前
|
安全 数据处理 数据安全/隐私保护
C/S架构与B/S架构的适用场景分析
C/S架构(客户端/服务器架构)与B/S架构(浏览器/服务器架构)在适用场景上各有特点,主要取决于应用的具体需求、用户群体、系统维护成本、跨平台需求等因素。
201 6
|
7天前
|
存储 SQL Apache
Apache Doris 开源最顶级基于MPP架构的高性能实时分析数据库
Apache Doris 是一个基于 MPP 架构的高性能实时分析数据库,以其极高的速度和易用性著称。它支持高并发点查询和复杂分析场景,适用于报表分析、即席查询、数据仓库和数据湖查询加速等。最新发布的 2.0.2 版本在性能、稳定性和多租户支持方面有显著提升。社区活跃,已广泛应用于电商、广告、用户行为分析等领域。
Apache Doris 开源最顶级基于MPP架构的高性能实时分析数据库
|
8天前
|
运维 NoSQL Java
后端架构演进:微服务架构的优缺点与实战案例分析
【10月更文挑战第28天】本文探讨了微服务架构与单体架构的优缺点,并通过实战案例分析了微服务架构在实际应用中的表现。微服务架构具有高内聚、低耦合、独立部署等优势,但也面临分布式系统的复杂性和较高的运维成本。通过某电商平台的实际案例,展示了微服务架构在提升系统性能和团队协作效率方面的显著效果,同时也指出了其带来的挑战。
43 4
|
27天前
|
存储 SQL 分布式计算
湖仓一体架构深度解析:构建企业级数据管理与分析的新基石
【10月更文挑战第7天】湖仓一体架构深度解析:构建企业级数据管理与分析的新基石
41 1
|
2月前
|
存储 监控 安全
SaaS业务架构:业务能力分析
【9月更文挑战第20天】在数字化时代,软件即服务(SaaS)模式逐渐成为企业软件解决方案的首选。SaaS 业务架构设计对于提供高效、可靠的服务至关重要。其核心业务能力包括:用户管理(注册登录、角色权限)、数据管理(存储备份、安全共享)、业务流程管理(设计定制、工作流自动化)、应用集成(第三方应用、移动应用)及客户服务(支持培训、反馈改进)。通过优化这些能力,可为企业提供更高效、可靠的 SaaS 服务。
54 11
|
3月前
|
消息中间件 负载均衡 Kafka
Kafka 实现负载均衡与故障转移:深入分析 Kafka 的架构特点与实践
【8月更文挑战第24天】Apache Kafka是一款专为实时数据处理和流传输设计的高性能消息系统。其核心设计注重高吞吐量、低延迟与可扩展性,并具备出色的容错能力。Kafka采用分布式日志概念,通过数据分区及副本机制确保数据可靠性和持久性。系统包含Producer(消息生产者)、Consumer(消息消费者)和Broker(消息服务器)三大组件。Kafka利用独特的分区机制实现负载均衡,每个Topic可以被划分为多个分区,每个分区可以被复制到多个Broker上,确保数据的高可用性和可靠性。
63 2
|
2月前
|
缓存 负载均衡 数据管理
深入探索微服务架构的核心要素与实践策略在当今软件开发领域,微服务架构以其独特的优势和灵活性,已成为众多企业和开发者的首选。本文将深入探讨微服务架构的核心要素,包括服务拆分、通信机制、数据管理等,并结合实际案例分析其在不同场景下的应用策略,旨在为读者提供一套全面、深入的微服务架构实践指南。**
**微服务架构作为软件开发领域的热门话题,正引领着一场技术革新。本文从微服务架构的核心要素出发,详细阐述了服务拆分的原则与方法、通信机制的选择与优化、数据管理的策略与挑战等内容。同时,结合具体案例,分析了微服务架构在不同场景下的应用策略,为读者提供了实用的指导和建议。
|
3月前
|
数据采集 存储 Java
Flume Agent 的内部原理分析:深入探讨 Flume 的架构与实现机制
【8月更文挑战第24天】Apache Flume是一款专为大规模日志数据的收集、聚合及传输而设计的分布式、可靠且高可用系统。本文深入解析Flume Agent的核心机制并提供实际配置与使用示例。Flume Agent由三大组件构成:Source(数据源)、Channel(数据缓存)与Sink(数据目的地)。工作流程包括数据采集、暂存及传输。通过示例配置文件和Java代码片段展示了如何设置这些组件以实现日志数据的有效管理。Flume的强大功能与灵活性使其成为大数据处理及实时数据分析领域的优选工具。
101 1
|
3月前
|
消息中间件 存储 大数据
大数据-数据仓库-实时数仓架构分析
大数据-数据仓库-实时数仓架构分析
130 1
下一篇
无影云桌面