详解微服务应用灰度发布最佳实践

本文涉及的产品
Serverless 应用引擎 SAE,800核*时 1600GiB*时
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: 相对于传统软件研发,微服务架构下典型的需求交付最大的区别在于有了能够小范围真实验证的机制,且交付单位较小,风险可控,灰度发布可以弥补线下测试的不足。本文从 DevOps 视角概述灰度发布实践,介绍如何将灰度发布与 DevOps 工作融合,快来了解吧~

作者:子丑

本次分享是站在 DevOps 视角的灰度发布实践概述,主要内容包括以下四个方面:


第一,灰度发布要解决的问题;

第二,灰度发布的四种典型场景;

第三,如何把灰度发布融入到应用的研发流程中,即把灰度发布与 DevOps 工作融合;

第四,对于外部流量灰度场景,演示如何通过工具将其落地。


01 灰度发布想解决什么问题


1、传统软件研发的需求交付

在早期的金融、电信等软件研发时,是不存在灰度发布的概念的,因为他们大多是全量上生产,测试过程耗时很长,且测试的单元不是各个微服务,而是整个的系统,以保证业务到达生产阶段后要尽可能的安全,不产生安全风险。在这种情况下,当业务到达生产阶段后,要回退或撤销成本很高也很难实现。


因此,在传统软件的研发过程中,开发者大量的心智负担在于如何保证新版本进入生产阶段后风险足够低。


2、微服务架构下典型的需求交付流程

在微服务架构下,多数开发者工作于 Web 应用的研发场景,其需求的交付过程已经产生了巨大的变革。交付的单元变小,一次交付往往是一个或几个小需求,通常仅涉及到几个应用的改造,且这些改造无需同时上线,可以按需部署。如下图所示:

image.png

在收到业务方的需求后,经过拆解发现有三个应用需要改造,且这三个应用会分别提交代码、开发测试、生产发布,期间还会存在灰度的环节,即提前将线上应用流量打过来,检查版本是否存在问题。如果没有问题,即部署该应用。当三个应用都部署成功后,开启特性开关,业务需求就对用户可见了。


相对于传统软件研发,尤其是金融和电信的场景,微服务架构下典型的需求交付最大的区别在于有了能够小范围真实验证的机制,且交付单位较小,风险可控。


3、进行灰度测试的必要性

线下测试很难覆盖线上的所有场景,即便是测试设计得非常完善,但仍旧会有差别,简单来说,线下测试与线上至少存在四个方面的不同。

image.png

第一,配置不同。线下环境与线上环境的应用版本保持一致不难,但配置方面往往存在差异,如服务规格、调试开关等。


第二,数据不同。线上的数据更真实、更丰富,场景也更多样。比如做网络开发,即使在线下模拟了各种各样的场景,但在线上可能还会出现问题。


第三,依赖不同。依赖的外部服务,比如某些金融软件会依赖人行的接口,这种情况线下环境无法满足,必须使用模拟接口。


第四,负载不同。线上负载更高,且波动性的特征也更真实。如某个时间点产生突增流量,流量峰谷值不同。在线下环境,考虑到资源成本,一般负载较低,高负载的压测会单独考虑。而压测时,场景的覆盖度也会比正常测试有所降低。

image.png

由于线下、线上环境存在的差异,线下测试很难覆盖线上的所有场景,我们需要通过灰度发布或线上测试弥补线下测试的不足,其本质是为了降低开发者的心智负担。


4、判断是否要进行灰度验证的参考条件

但是否真的需要灰度测试仍需要从业务场景等方面进行多番考虑。

image.png

第一,我们是否允许做线上灰度验证,比如对于某些有明确监管要求的行业,无法使用线上灰度验证。


第二,我们是否确实需要做线上灰度验证。因为线上线下的不一致无法消除,且成本较高,若在考虑成本的基础上,认为不进行灰度验证带来的风险可以接受,则可以不做灰度验证;


第三,我们是否有条件做线上灰度验证,即是否有自主运维的能力。此外,若验证的请求量非常低,服务访问量也很少,则相对来说,做灰度验证成本较高,此时可不做灰度验证;


第四,我们能够做线上灰度验证,还需要具备相应的工程和技术的能力,以及相应工具的准备等。


02 灰度发布的四种场景


灰度发布有四种常见场景,即简单分批、外部流量灰度、外部+内部流量灰度、全链路(流量+数据)灰度。四种场景依次递进。


1、简单分批

image.png

简单分批不带任何的流量特征,只是把新旧两个版本的应用程序同时在环境中被请求和调用。请求会随机被路由到新版本或旧版本。假设一个服务由 10 个 pod 支撑,在服务路由到 pod 时。如果均匀分布,每个 pod 上约有 10% 的流量。简单分批的特征之一是部署时有批次,通过分批,使得每批有一定数量的流量;其次,批次之间有一段观测和验证时间。因此,对于简单分批,分批间的观测手段是必须的。当应用存在两个版本时,应用是否可以正常运行,是否存在故障风险,都需要通过观测手段来识别。


简单分批是最简单的一种灰度的方式,其不考虑流量的路由问题,只是简单地将两个版本在线上并存。当然,它也有一些要求。首先,需要保证应用对前一版本的兼容,即当 v1、v2 同时存在时,新版本的 v2 应兼容 v1,否则当用户先调用 v1,再调用 v2 时,会因为版本不兼容产生不一致问题。其次,建立观测能力,包括基础设施监控、应用监控及业务监控等,监控越完善,对分批的验证越充分,越有把握保证新版本没有问题。最后,批次以及每批的比例和观察时间需要明确定义,并且要让监控可以采集到足够的数据,确保可以发现问题。因此,要尽量在每个批次之间留出足够的观测时间。


2、外部流量灰度

简单分批最大的问题在于其完全没有流量特征,如果新版本质量较差,线上很大概率会出现一定比例的质量风险。为了解决这一问题,我们需要对灰度的流量进行隔离,只把特定的流量路由到灰度服务中,尽量不让正常流量受影响,这便是接下来要介绍的外部流量灰度场景。

image.png

对于 K8s 上的工作负载,流量从 ingress 进入后,会通过特定的标识控制流量进入到指定的应用。标识可以是百分比,如 20% 的流量进入 service v1,80% 的流量进入 service v2。也可以是请求特征,如指定 header 标识进入 service v2,其他流量进入 service v1。外部流量灰度相较于简单分批,最大的区别在于有了入口的流量特征。比如按请求标识进行流量分批时,只有指定的 header、cookie 或地域特征的请求才会进入到灰度版本。外部流量灰度场景也有一定的要求。首先,要保证对前一版本的兼容,因为该场景对内部的流量调用没有约束。其次,必须存在监控系统。同时,对批次和观测时间也需要明确定义。最后,建议先流量切换,再清理工作负载,且两者之间应留有观察时间,即流量从灰度切到正式版本后,应有一定的观测时间,再清理灰度的工作负载。


外部流量灰度场景的问题在于,其只在入口处做了路由标识,一旦进入到内部服务间的调用,则无法再通过流量标识进行路由区分。


1)设置客户端灰度标识的常见思路

对于外部流量灰度场景,还有一个问题不可避免,即对入口流量分发起控制作用的灰度标识如何设置,以下是几种常见的思路:

image.png

第一种,使用客户端特征属性。这是一种常见的设置方式,如客户端来自于哪个运营商,是移动、电信,或是联通;再如客户端的地址是哪里,是浙江、江苏,或是上海;再如浏览器版本等。这些特征可以帮助我们做特定的识别。比如把中国某省的移动用户作为灰度的用户集,并将流量路由到灰度版本上。使用这种方式其灰度特征非常明确,观测灰度用户数据难度较低。


第二种,通过客户 ID 做哈希分组。这种相对离散的方式可以避免幸存偏差,如前面案例中使用浙江省或移动客户进行测试,可能在其他运营商之间存在问题,这种方式可以避免这种偏差。


第三种,通过 cookie、header 或 query 参数携带灰度标识做验证。这是一种在 ingress 中经常用到的方式,如在线上的灰度服务中通过一些 cookie 将其路由到灰度的环境中。


第四种,指定灰度的标识码进行验证,可以提前准备一些标识码,通过发放标识码的方式进行。


2)基于流量策略的灰度验证流程

设置好灰度标识后,灰度验证的流程如下:

image.png

客户端读取灰度策略,灰度策略返回配置 _env:grey 或其他灰度标识,在请求业务接口时,根据是否带有灰度标识,把符合标识的请求路由到新版本服务中,不含有灰度标识的请求路由到老版本中,实现灰度的验证。


3、外部+内部流量灰度

前面提到的外部流量灰度场景无法解决应用内部微服务之间的流量问题,此时就需要用到外部+内部流量灰度的实践。

image.png

首先,入口处与前一种场景相同,当流量进入后会通过流量策略携带灰度标识。进入应用内部时,应用内部同样有流量的路由策略。如,grey 的流量流入到 app-B grey 版本服务以及 app-C grey 版本服务中。prod 流量路由到其他 app 的 prod 中。当然,实际的流量策略会更加复杂,如 app-C 只有一个版本,则无论是 grey 或是 prod 都会路由到该版本上。


在这个过程中,会牵涉到一个问题,如何尽量少地对应用进行改动使其支持内部的流量灰度。对于内部的 RPC 流量灰度,可以引入类似于 istio、ASM、MSE 等工具来完成,借助其提供的机制做流量的路由。


第二,要保证版本的兼容性,因为除了应用间调用,还有数据、消息等,在这个场景下并没有进行灰度区分。


第三,应用版本更新和流量的调整要串行处理。比如,有些团队在部署时,希望能控制各个应用的部署顺序,且每次的顺序不一定相同,要保证存在依赖关系的几个应用按正确的顺序部署,如 a 依赖 b 和 c,当 b、c 更新完成后,才把服务部署到 a 上。如果顺序有误,在 b、c 未更新时,流量就进入 a,则会产生预测外的风险。对此,开发者有较重的心智负担。此时可以转换思路,将灰度验证时的流量进入延后,先同时把 a,b,c 应用的灰度环境都部署完,再把灰度流量载入,摆脱应用更新时的依赖关系,把流量调整和版本更新分开处理。


第四,关于监控,与前面的灰度验证相同。


第五,数据库和中间件需要保持兼容。如果 c 的灰度和生产都用了同样缓存会存在干扰;或者两者都消费了同样消息,灰度的产生的消息有可能会被生产消费。这个过程是否能保持兼容是需要考虑的问题。至此,除中间件之外在流量侧已基本实现了灰度,而在数据侧仍未处理。


4、全链路(流量+数据)灰度

image.png

该场景在于如何处理流量+数据的灰度,其不只包含全链路流量的灰度,还包括中间件(如消息、缓存)和数据库等,也能对流量标识进行处理。这种场景非常依赖中间件的建设,对团队工程能力要求较高。


对于该场景,我们的建议是,首先,按优先级逐步建设;其次,先解决数据库之外的中间件问题;第三,尽量寻求专业的技术团队获取实施方案,如 MSE 团队。


四种灰度发布场景,逐渐由简单到复杂,简单分批最简单,成本也最低。


03 将灰度发布融入应用研发流程


接下来,我们需要在应用研发流程中将灰度发布串联起来。这部分将围绕如何把灰度发布固化为研发流程的一部分展开介绍。


1、管理环境和角色权限

image.png

首先,我们建议将灰度环境作为独立的环境,与正式环境隔离,降低环境管理和权限控制的复杂度。其次,为应用定义不同的角色如开发、运维等,不同的角色拥有不同的环境权限。


2、镜像更新和流量调整

image.png

我们建议把镜像更新与流量调整分离成不同的步骤,在镜像更新前把流量切零,更新之后再调整镜像灰度流量,这样的好处在于,灰度镜像更新过程中无需关心服务是否可用,按照批量下发的思路一次性更新即可,这样可以避免复杂的部署顺序编排问题。


3、整合配置和数据变更

如果配置变更和数据变更对灰度发布有关键影响,我们要对其进行整合。

image.png

一般情况下,数据变更会先于应用部署完成,甚至早于整个流程,也可以串进研发流程中,如在数据变更的发布单中完成数据变更。当灰度流量调整前后,完成配置变更,这样就可以把配置和数据变更整合起来,保证灰度验证前整个环境的完整性。根据以往遇到的灰度验证案例,很多灰度验证流程只进行了镜像更新,但实际上还有很多准备工作,如数据库操作、配置操作等。但这些操作往往会散落在不同的地方,这会对灰度验证带来两方面的不良影响,一是整个的过程的自动化程度低,效率低,二是容易产生误操作等各方面的风险,导致即便完成镜像更新,在不进行数据变更和配置变更的情况下还会产生其他风险。


4、灰度发布的验证

image.png

在灰度发布过程完成之后,应加入验证节点。首先,可以进行最简单、最通用的自动化验证,或者人工的卡点,人工确认灰度无误,保证在灰度验证成功之后才进入生产过程。


5、灰度完成后的清理

image.png

灰度验证通过后的清理过程,主要包括两个目的,第一,降低灰度环境中的负载和资源消耗,还可以避免部分流量进入灰度环境产生的风险。当然,该流程取决于实际情况,很多情况下可能不会将其全部清理,可以缩成一个副本,使其在和其他服务进行灰度部署时,也可以验证。


04 演示:外部流量灰度场景


演示是基于 K8s ingress 灰度发布场景。


1、场景概述

image.png

首先,入口域名会配置两条路由策略,一条是灰度策略,当它带有 _env:grey 的 header 标识时,进入到灰度的 ingress,再进入到灰度的 service 和 deployment,共同组成独立的灰度环境。另一条是不带该标识,则会进入正式环境的 ingress、 service 和 deployment,共同组成正式环境。为了便于展示,各个环境均只有一个 deployment。


在研发流程到生产阶段,首先设置准入条件,且准入条件在经过前面测试阶段的验证后才能开始生产阶段的部署。其次,会从 master 分支构建镜像。然后会经过运维审批的节点,如果不通过,整个流程停止。接下来部署灰度环境,进行灰度验证,如果灰度验证失败,则不进入生产阶段,不做灰度变更,直接进行灰度的清理,如果灰度验证通过,则依次进行生产部署、灰度清理、关闭变更,关闭变更意味着前面的步骤都是成功的。灰度清理包含两种情况,一种是生产部署结束之后,一种是灰度验证失败后。接下来进入真实环境展示整个流程。


2、DEMO 演示

登录进入云效的 AppStack,演示在真实的 K8s 应用中进行 ingress 灰度流量的过程。


详细的文档操作步骤,可前往:基于 Nginx Ingress + 云效 AppStack 实现灰度发布

05

课后答疑


Q1:全链路灰度如何实现?

A1:全链路灰度场景分为几层。首先考虑外部流量场景是否足以满足需求,接下来拓展到外部+内部 RPC 层面,如果还不能满足实际需求,再考虑架设全链路灰度。但全链路灰度成本较高,可以先了解阿里云 MSE 等专门做全链路灰度的产品和方案,再结合社区的方案,如 istio 等工具。因为中间件涉及的内容很多,与自身的技术栈有很大关系,很难有标准的实现,如果是 JAVA 或 golang,MSE 是一个很好的选择。


Q2:假设某系统中有十个微服务,本次版本发布只发布 A、B、C、F 四个,如何保证内部调用时都是最新的?

A2:可以把目前例子做简单调整。首先,在现在的流程中,最后会清理灰度环境,这里可以不作清理,保留的灰度环境与生长环境使用不同的 service 集群,则 10 个微服务的灰度版本永远是最新的。当把 A、B、C、F 更新到灰度环境时,内部调用仍是灰度环境的 A、B、C、F,服务之间调用则是 namespace 内部的服务调用,即从 K8s 设备路由访问,而不跨 namespace 访问。在这种情况下,就可以保证在灰度 namespace 下调用的是灰度下的服务,而不会调用到生产的服务。如果不基于 K8s 的服务发现,采用独立的注册中心,也需要保证在注册中心有对应的 namespace 等机制来区分灰度和生产环境。


Q3:灰度发布时数据库如何处理?

A3:这个问题较为复杂。首先,我们建议尽量不要让灰度有数据库的差异,或者将数据库的差异在灰度发布处理,实现兼容。因为在灰度发布中,如果数据库层面存在差异,难度会非常大,且容易出现一些问题。其次,数据库的变更不一定要融入到整个研发流程中,甚至多数情况下其实不需要融入其中,若有数据库的变更要提前完成,因为数据库变更相对于应用变更或配置变更风险更大。


Q4:用同一应用还是给客户分配不同的 namespace?

A4:如果客户有类似于租户的概念,如云效,有很多客户企业,每个企业都有自己的企业 id,企业间的数据逻辑上是隔离的。从这个角度,如果客户是逻辑隔离,则不需要分配不同的 namespace。如果隔离粒度要更高,一般先考虑数据上的隔离。


Q5:灰度发布功能可以联动函数计算吗?

A5:可以,在原有的研发流程中把函数计算的步骤编排进去即可。


Q6:灰度策略存储在哪里?

A6:云效目前存储在系统,即云效本身的环境配置中,也可以放在代码库、IaC 库或配置中心等。但可能存入应用的环境更为合适,因为在定义环境时就定义了其灰度策略。


Q7:灰度和生产环境数据隔离吗?

A7:理论上不隔离,即使要隔离也是逻辑的隔离。


Q8:灰度发产生的多余数据如何处理?

A8:目前没有更好地处理办法,若是数据问题,只能靠本身数据层的逻辑,如灰度数据标等,由于偏测试数据,可以保证数据有办法清理和恢复的。如果真的产生了多余的数据,只能重新修复。


Q9:如果有 Zookeeper 注册中心,是在注册中心增加头部信息吗?

A9:如果是有 ZK,取决于微服务架构的形式。如果服务都通过 ZK,则建议在 ZK 完成。如果不是,则可以简单一些在 K8s 中完成即可。


Q10:是否平台对代码依赖很大?

A10:对代码依赖不算高,但其中的关键点 RPC 部分/流量的部分是否使用通用的标准协议,如果是 Dubbo 或部分框架,它有相应的要求,如要求有注册中心,就会有一定的影响。从另一个侧面,建议尽量避免这种依赖。在最后的 demo 场景中没有这种依赖的,当然,对基础设施有依赖,即基于 K8s 的 YAML 编排能力,当然其他方式也能做到类似的效果。


Q11:推荐注册中心还是 K8s?

A11:没有固定的要求。从个人角度讲,如果 K8s 足以,使用 K8s 即可,无需引入注册中心,但如果有其他方面的要求,或要跟不同的环境中的服务做联动,可以使用注册中心。因为注册中心的特性更丰富,而且也与是否 K8s 没有耦合性。


Q12:Flow 的 YAML 语法和 Jenkins file 的差异?

A12:两者的差别较大。jenkinsfile 基于 Groovy 语法,Flow 的 YAML 更像 Github Actions。


Q13:如何在触发构建时只让指定的环境触发构建?

A13:刚刚的演示中有简要的介绍。我们使用了 condition 语句的方式,生产步骤何时执行限制了条件,如清理环境,只有当条件满足时才执行,反之则不执行。选择性的构建可以使用这种方式。


Q14:原来使用的是 Nacos,是否有必要更换为 K8s?

A14:如果不影响工作,则没有必要特意更换。


往期精彩回顾:

让研发规范管得住 - 我们为什么在流水线之上又做了研发流程?

运维人少,如何批量管理上百个微服务、上千条流水线?

流水线 YAML 高级用法来了!大幅降低重复代码、灵活编排多任务

相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
1天前
|
运维 监控 负载均衡
探索微服务架构的演变与最佳实践
【6月更文挑战第30天】微服务架构作为现代软件开发领域的一个热门话题,其发展经历了从萌芽到成熟的多个阶段。本文将深入探讨微服务架构的演变历程,包括其定义、核心原则以及与传统单体架构的对比。同时,文章还将分享一系列经过验证的最佳实践,帮助开发者在构建和维护微服务时避免常见陷阱,确保系统的可扩展性、灵活性和可维护性。
34 1
|
7天前
|
存储 消息中间件 API
“论微服务架构及其应用”写作框架,软考高级,系统架构设计师
论微服务架构及其应用近年来,随着互联网行业的迅猛发展,公司或组织业务的不断扩张,需求的快速变化以及用户量的不断增加,传统的单块(Monolithic)软件架构面临着越来越多的挑战,已逐渐无法适应互联网时代对软件的要求。在这一背景下,微服务架构模式(MicroserviceArchitecturePattern)逐渐流行,它强调将单一业务功能开发成微服务的形式,每个微服务运行在一个进程中;采用HTTP等通用协议和轻量级API实现微服务之间的协作与通信。这些微服务可以使用不同的开发语言以及不同数据存储技术,能够通过自动化部署工具独立发布,并保持最低限制的集中式管理。
|
6天前
|
Kubernetes 测试技术 持续交付
深入理解微服务架构及其在现代后端系统中的应用
本文将深入探讨微服务架构的核心概念、设计原则以及如何在现代后端系统中实现和优化它。我们将从微服务的定义开始,逐步展开讨论其优势、面临的挑战,以及如何克服这些挑战。同时,文章还会涉及微服务与容器化技术、持续集成/持续部署(CI/CD)的协同作用,以及微服务架构的未来发展趋势。读者将获得对微服务架构全面而深刻的理解,并能够识别在实施过程中可能遇到的陷阱和解决方案。
26 1
|
13天前
|
机器学习/深度学习 人工智能 Java
【Sping Boot与机器学习融合:构建赋能AI的微服务应用实战】
【Sping Boot与机器学习融合:构建赋能AI的微服务应用实战】
17 1
|
1天前
|
Kubernetes 监控 API
深入理解微服务架构及其在现代后端开发中的应用
随着云计算和容器技术的飞速发展,微服务架构已成为现代后端开发中的一项关键技术。本文将深入探讨微服务的设计理念、优势与挑战,并基于最新的行业数据和案例分析,揭示微服务如何优化后端系统的性能和可维护性。通过引用权威研究和技术报告,我们将展示微服务架构在处理复杂业务逻辑、提高开发效率以及增强系统的可扩展性和容错能力方面的实际效益。
12 0
|
6天前
|
消息中间件 监控 Java
使用Java构建微服务架构的最佳实践
使用Java构建微服务架构的最佳实践
|
12天前
|
运维 监控 API
打造高效后端:微服务架构在现代应用中的实践
本篇文章探讨了微服务架构在现代应用中的实际应用,重点介绍了其优势、挑战以及最佳实践。通过具体案例和技术细节,我们将深入了解如何设计、实现和维护一个高效的微服务架构,以满足不断变化的业务需求。
24 0
|
17天前
|
设计模式 消息中间件 运维
微服务架构在后端开发中的应用与挑战
微服务架构作为一种现代软件开发方法,带来了灵活性、可扩展性和高效性,但同时也引发了诸如复杂性管理、数据一致性等新的挑战。本文深入探讨了微服务架构在后端开发中的应用场景,以及应对这些挑战的策略。
23 0
|
20天前
|
监控 数据管理 API
探索微服务架构中的后端设计最佳实践
在当今快速发展的技术世界中,微服务架构已经成为开发大型复杂系统的一种标准方法。本篇文章将深入探讨微服务架构在后端设计中的最佳实践,涵盖服务拆分、API设计、数据管理及监控和调试等方面,帮助开发者在实际项目中应用这些原则,以构建高性能、可扩展且易于维护的系统。
22 0
|
1天前
|
存储 负载均衡 监控
探索微服务架构中的服务发现与注册机制
【7月更文挑战第2天】在微服务架构的海洋中,服务发现与注册机制扮演着灯塔的角色,确保服务间的通信不因波涛汹涌而迷失方向。本文将深入探讨这一机制如何为微服务之间的交互提供动态、高效的路径,以及它对于整个系统稳定性和扩展性的重要性。我们将从基本原理出发,逐步剖析服务发现的实现方式,并讨论在设计服务注册中心时需要考虑的关键因素。