成为工程师 - 如何提高系统的扩展性?

本文涉及的产品
云解析 DNS,旗舰版 1个月
全局流量管理 GTM,标准版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: 成为工程师 - 如何提高系统的扩展性?

今日内容


今天我们就来讲扩展性的第二块内容【服务能力扩展】


01流量上涨会带来什么问题?


在谈“应对流量上涨”这个话题前,我们要先搞清楚流量上涨到底会带来什么问题。


【1】最容易想到的就是应用服务器扛不住了,以至于无法提供正常的服务。也许是cpu资源、内存资源、带宽资源、操作系统各种资源。


【2】如果一个服务器提供了多种服务,其中一个服务的流量激增会“牵连”其他的服务。导致其他服务变慢或者无法正常响应。


【3】因为数据库进行的都是和硬盘打交道的持久化操作,效率很低。在大流量的情况下,性能问题会被急剧放大。而且,如果多个应用使用同一个库,一个应用导致数据库变慢或者资源耗尽也会影响其他应用。


【4】我们如果把“流量上涨”扩大到“业务量上涨”,我们可以预测数据库不仅仅是面临流量压力,数据量更是会与日俱增。数据库容量又受限于其寄生的机器上,总有硬盘耗尽的一天。


可见,针对一个系统来说,仅仅是完成功能是远远不够的。其设计是否能够应对上面这些问题非常重要。


02AFK模型


聊完了流量上涨带来的问题,我们就来聊聊解决方案。


针对系统扩展性有一个经典的【AFK扩展立方体模型】,来自《架构即未来》这本书。个人认为这个模型非常不错,能够涵盖关于系统扩展性的多个维度。本文也会以这个模型体现的维度去展开对扩展性的说明。


我们先来看一下这个模型:


从图中可以看到,在系统的发展过程中,随着业务的发展和流量的变化,存在三个维度的扩展。我们依次来讲讲。


03水平复制(X轴)


X轴扩展称之为服务的【水平复制】。说白了,就是通过加机器的方式来应对流量的增长。


相信看到这里,有些同学会有疑问说,“通过加机器方式来扛流量”难道不是自然而然的事情吗?


当然不是,想要通过加机器来抗流量,需要具备两个先决条件,那就是【负载均衡能力】和【无状态服务设计】。


01负载均衡


“负载均衡”是指将流量根据一些策略分配到不同的机器上。这个看似简单的定义背后有两个需要关注的重点。


【1】“负载均衡”能够根据自适应机器的数量。只有在增加或者减少机器时,负载均衡的能力可以识别到机器数量的变化并随之调整流量,才能够实现水平复制。


【2】“负载均衡”中的“均衡”是一个具有迷惑性的字眼。这里的“均衡”并不是指平均分配流量。而是指根据机器的能力合适地分配流量。比如2C4G的机器和4C8G的机器,就可以将流量1:2这样来分配(能者多劳,毕竟也更贵)。


所以,常见的负载均衡策略可能会需要考虑以下这些因素:


【机器配置】:机器的core数量和型号、内存大小、带宽配置等。


【机器负载】:load、cpu、io等。


【请求响应效率】:qps、rt等。


不过,这些策略看似高级,但你需要谨慎使用。因为复杂的判断逻辑必然会影响效率。例如“机器负载”和“请求响应效率”还涉及对数据的采集及分析。对于“负载均衡”来说,性能是关键。如果抛弃了性能去追求高端,那就舍本逐末了。这也是为什么很多情况下,负载均衡策略就选用轮询、随机、ip哈希的原因。


负载均衡常使用到的技术包括:DNS、Nginx、LVS、注册中心等。这些内容我们在后续架构师的篇章中会详细展开(包括四层七层、注册中心各种模式等)。我们这里仅做简要介绍。


这里我们先给一张【负载均衡在整体架构中的典型应用】图,通过这张图你可以了解到”负载均衡无处不在“并且”负载均衡是我们应用架构的基础能力“。



【DNS】:域名解析服务,负责将网址翻译为ip地址。你可以在DNS上配置网址和多个ip间的映射关系。当有人上网输入了这个地址,DNS会(轮询)选择其中一个ip地址返回,流量就会被均匀地分散到你的机器上。DNS往往作为第一层负载均衡。


【Nginx】:神一般的存在。可以在四层和七层做流量的负载均衡,往往配合DNS在集群服务的入口承担负载均衡的职责。


【LVS】:LVS是通过网络地址转换技术来实现负载均衡的。其工作在网络模型的四层,所以相比nginx,他没法在七层为你提供例如改Http Header的事情。但其性能卓越,配置简单。同Nginx一样,往往用在集群入口。


【注册中心】:记录了哪些机器提供了哪些服务,并为调用方提供了服务可用的机器列表。注册中心涉及服务的注册与发现,还结合了熔断、限流等能力,往往用于集群内部服务之间rpc调用的负载均衡。


从上面的图我们可以看到,一个公司整个的技术架构中,到处可见”负载均衡“。


02无状态设计


无状态设计是指服务器(内存或者硬盘)不存储任何持久化(或者半持久化)数据。通俗的说,每一台服务器都是没有记忆的,完全可以随时被重启、替换。


举个例子:肯德基快餐店里的员工就是无状态的。食材不是员工的,烹制食物的配方不是员工的,员工可以根据配方快速地学会烹饪食物。所以在饭店高峰期安排多一点的员工就可以抗住高流量。但是很多高级酒店就没有那么好的弹性,你需要提前预约,酒店只开放固定数量的就餐名额。这是因为餐品的烹饪是名厨自带的手艺,无法通过马上加一个厨师就可以有双倍产出。


回到系统设计,如果数据存储在本地,显而易见无法通过增加机器来快速提升服务能力。因为数据如果不先做拆分,新机器无法提供服务。同理,在缓存使用上也是一样。这样的服务,我们就称之为”有状态的服务“。


面对”有状态的服务“,想要通过增加机器来扛流量,就需要做如下图这样的操作,这就引入了极大的复杂性。


所以,要实现无状态设计,就不要依赖本地缓存和本地存储介质。改为依赖中心化的数据库服务和缓存服务。



04服务拆分(Y轴)


服务拆分顾名思义,就是指把原来一个系统按照功能拆分成多个系统。例如:

fe775c9798024ac591ef82da7e2e8c4b.jpg


一般来说,在公司发展过程中,会先采用水平复制的方式去应对流量的增长。但是到了一定阶段后会发现一些原因,不得不做服务拆分:


【1】运行在同一个服务器上的多个功能之前会因为流量的原因开始相互影响。


【2】每个功能面对的流量压力天差地别。


上面两点是和流量相关的,但除此之外,其实还有很多原因包括:功能对机器配置或者运行时环境的配置不同、功能对存储的要求不同、功能间开发频率不同、功能都揉捏在一起测试不便、功能间的保障力度不同、团队协作耦合等各种问题。这些内容我们会在后面架构师篇章中再详细来阐述”分布式架构的优劣“。


那么问题来了,服务拆分要怎么拆呢?


01设计之初要防患于未然


对于一开始没有为拆分做好准备的系统来说,拆分是非常困难的。


在互联网发展初期,没有人会想到一个网站会需要承担如此大的流量,也没有人会想到一个网站的背后需要由数以百计的应用和数以千万计的服务器协同提供服务。那时候所有的代码写在一起,也就是我们常提到的ALL-IN-ONE(所有功能在一个系统上)架构。


但是现在,即使你是创业初期,使用ALL-IN-ONE架构,你也应该在设计上运用现在的各种方法论,为之后的服务拆分留下可能性。


02如何让系统易于服务拆分


那我们在系统设计时注意哪些方面来提高之后服务拆分的效率呢?


这些内容其实我们在之前的几篇文章中都已经提到过了,我这边再做一个简单的陈述。


【1】无论是层次间的依赖、模块的依赖、外部的依赖。都要遵循“依赖抽象而非具体”的原则来实现松耦合。这也是SOLID中的D。


【2】模块功能要单一。术业有专攻,每个模块就负责一个职责。这也是SOLID中的S。


【3】使用DDD的思想,定义系统中的领域模型并做好限界上下文的划分(具体DDD的使用可以参考《【成为架构师】11. 成为工程师 - 如何做DDD领域驱动设计?》)。这里还是要强调一下的是,要完全遵循DDD的要求和原则是一件门槛很高的事,也可能是一件没有必要的事。重要的是你可以参考和感受DDD对于模块划分的思想,切记不要钻牛角尖。


【4】我们上面在聊水平复制时提到的“无状态设计”。

服务拆分的过程是一个循序渐进、逐步拆分的过程,不可能“一口吃成一个胖子”,否则只会“消化不良”。


对于服务拆分的细节、系统重构的细节在后续架构师板块中会有一篇文章详细讲述。


05数据分区与单元化部署(Z轴)


在落实【水平复制(X轴)】和【垂直拆分(Y轴)】后,是不是我们的系统就能够抗住持续上涨的流量了?不,接着你会碰到如下问题:


【1】数据库的压力越来越大。一方面是业务流量带来的CRUD压力,另一方面是服务器水平复制后的连接数量暴涨压力,还有一方面是数据量的暴涨导致硬盘扛不住了。


【2】机器间rpc的成本越来越大。A服务和B服务都有100台机器,其中A37机器在北京,B89机器在深圳,两台机器的物理距离使得他们之间进行rpc调用需要一定的耗时。而一次业务请求可能涉及几十次rpc,这些跨地域的rpc请求耗时累加起来就会造成严重的性能问题。更重要的是,这些rpc请求失败的风险也会急剧增加。


我们怎么解决这样的问题呢?答案是:数据拆分+单元化部署


01数据分区


顾名思义,数据分区就是将一个数据库里的数据拆分成多份并分开部署


数据拆分常见的有两种:【垂直拆分】【水平拆分】


【垂直拆分】:将数据表以“列”为单位进行拆分。例如将“用户表”拆为“用户基础表”和“用户扩展表”。将用户基础信息放到“用户基础表”中,将用户扩展信息放到“用户扩展表”中。


垂直拆分的思路很直观,但垂直拆分无法根治扩展性问题。如果用户数据已经拆分到最细粒度,则无法再具备扩展性。并且,垂直拆分后会带来数据访问复杂度的增加,还会带来事务问题。


【水平拆分】:将数据表以“行”为单位进行拆分。例如将用户表根据用户id的倒数两位数字进行拆分。


水平拆分可以做到理论上数据无限扩展。上述方案可以做到将数据均匀的拆为100份,如果要拆成一千份,则可

以根据后三位来分库分表(前提是后三位的是均匀的)。


从上面的描述来看,水平拆分似乎明显是更优的选择,那垂直拆分有什么意义吗?


事实上,垂直拆分并不是用来解决数据容量问题的,垂直拆分更多是服务于服务拆分的。例如一开始,我们把用户的姓名、性别、出生年月、vip等级、优惠券等信息放在一张表里。但是随着服务的拆分(用户服务拆分为用户服务、会员服务、营销服务),这些数据也要相应地做拆分。


02单元化部署


单元化部署是指:将一整套服务镜像地部署多份,每一份称之为一个Region


每一个典型的Region拥有这样几个特点:


【1】有基本上所有的服务。包括业务服务(用户服务、支付服务、订单服务等等),也包括基础设施服务(消息中间件、缓存、DB)。


【2】数据隔离。每个Region的数据都是相互隔离的,包括缓存、DB等各种数据。


【3】每一个Region中的服务都部署在一个机房内。


【4】每个Region的来源流量相互隔离。例如RegionA部署在深圳,负责处理所有深圳的流量。RegionB部署在北京,处理所有来自北京的流量。


如果你细心的话,你肯定会注意到我在【1】中用了“基本上”这三个字。这是因为有些服务无法做Region化,因为这些服务背后的数据是全局共享的。但是针对这样的服务我们也可以用冗余服务+异步化最终一致性来优化。


所以,典型的单元化部署改造就像下图这样:



从上图中你可以看到很多“单元化”的好处。同机房服务的网络延迟基本可以忽略、某一个Region如果挂了不会影响另一个Region、Region有用完整的能力所以可以作为灾备方案等等。


坦白的说,这部分内容更多的是公司基础技术团队和运维团队在做的事情,但是“单元化”这种思想是非常值得学习的。


今日小结



今天我们聊了“应对持续的流量增长,我们需要如何提高系统的扩展性”。


我们先是讨论了“流量增长会带来怎样的问题”,接着我们引出了【AFK扩展模型】,并详细展开了其描述的扩展性的三个维度【水平复制】、【服务拆分】以及【数据分区与单元化部署】。其中,前两个扩展维度和我们研发同学关联度较高,而数据分区与单元化更偏向于基础能力及运维能力。但作为技术人,我相信在面对“扩展性”这个问题时,我们不应过于强调边界。

相关文章
|
缓存 负载均衡 算法
“软件系统三高问题”高并发、高性能、高可用系统设计经验
​ 总的来说解决三高问题核心就是 “分字诀” 业务分层、系统分级、服务分布、数据库分库/表、动静分离、同步拆分成异步、单线程分解成多线程、原数据缓存分离、分流等等。。。。 直观的表述就是:从前端用的CDN、动静分离,到后台服务拆分成微服务、分布式、负载均衡、缓存、池化、多线程、IO、分库表、搜索引擎等等。都是强调一个“分”字。
2645 0
“软件系统三高问题”高并发、高性能、高可用系统设计经验
|
3月前
|
设计模式 架构师 搜索推荐
成为工程师 - 如何提高代码的扩展性?
成为工程师 - 如何提高代码的扩展性?
|
3月前
|
缓存 运维 监控
成为工程师 - 如何提升系统稳定性(1)
成为工程师 - 如何提升系统稳定性(1)
|
3月前
|
存储 缓存 NoSQL
成为工程师 - 如何提升系统写性能(上)
成为工程师 - 如何提升系统写性能(上)
|
3月前
|
存储 缓存 分布式计算
成为工程师 - 如何提升系统写性能(下)
成为工程师 - 如何提升系统写性能(下)
|
存储 SQL 缓存
系统架构设计(3)-可扩展性
即使系统现在可靠,不代表将来一定可靠。发生退化的最常见原因是负载增加:并发用户从最初的10,000 增长到 100,000或系统目前处理数据量超出之前很多倍。
292 0
|
存储 缓存 架构师
「可扩展性」可扩展性最佳实践:来自eBay的经验教训
「可扩展性」可扩展性最佳实践:来自eBay的经验教训