近万服务实例稳定运行 0 故障,携程微服务架构是如何落地的?

本文涉及的产品
应用实时监控服务ARMS - 应用监控,每月50GB免费额度
函数计算FC,每月15万CU 3个月
容器服务 Serverless 版 ACK Serverless,952元额度 多规格
简介: 本文整理自作者于 2020 年云原生微服务大会上的分享《携程微服务框架实践及思考》,主要介绍了从携程自研框架遇到的问题,转到落地 Dubbo 微服务框架,携程是如何实践的,以及实践过程中遇到的问题;未来转型 service mesh 的道路上,dubbo 协议存在的问题,我们需要怎么样的协议层以及微服务 SDK 的定位。

头图.png

作者 | 顾海洋  携程框架架构研发部技术专家

导读:本文整理自作者于 2020 年云原生微服务大会上的分享《携程微服务框架实践及思考》,主要介绍了从携程自研框架遇到的问题,转到落地 Dubbo 微服务框架,携程是如何实践的,以及实践过程中遇到的问题;未来转型 service mesh 的道路上,dubbo 协议存在的问题,我们需要怎么样的协议层以及微服务 SDK 的定位。

阿里巴巴云原生公众号后台回复 818 即可获取直播回看地址和大会 PPT 合集。参与文末互动,还有机会得《携程架构实践》一书!

携程从 .Net 技术栈的时代就已经开始微服务领域的探索,转入 Java  技术栈之后,更是经历了自研微服务框架,到现在高性能的 dubbo,目前我们正在 Service Mesh 的道路上探索,希望能够实现微服务框架的全面标准化、以及云原生。

过去(自研服务框架)

携程从 .Net 技术栈开始,最开始是基于 ESB 总线,虽然解决了内网服务调用的治理问题,但是集中式的服务架构,经常会出现单个服务把整个总线拖垮的情况,进而导致全网瘫痪的现象。基于注册中心的 SOA 服务架构,通过分布式的服务调用,解决了单点故障带来的巨大影响。目前,携程主要是以 Java 技术栈为主,考虑到兼容历史 .Net 技术栈,所以现在的框架以自研为主,但是对比开源的高性能服务框架,自研的框架可能又存在下述提到的几个问题。

1.png

现在(CDubbo 服务框架)

CDubbo 名字里的 C 代表携程的治理,Dubbo 代表阿里开源的 Dubbo SDK。纵观过去两年的实践和探索,从 2018 年 4 月的第一个版本落地,到现在的近万服务实例,我们大致可以总结为下面的几个主要里程碑。

2.png

1. 注册发现

注册发现是分布式服务框架的核心要素,为了支持现有的服务互通,所以需要接入携程的注册中心。

服务注册支持健康检测扩展机制,业务可以根据业务场景自定义健康检测扩展,例如当依赖的数据库不可用时不再对外提供服务。服务端通过 5s 一次的心跳保持服务的可用性,当连续 N 次没有发送心跳时就会自动通知客户端。

客户端发起对服务的订阅,通过推拉结合的模式,保证节点在客户端的最终一致性。通过 Dubbo 的扩展机制,实现了自定义的路由策略,比如根据方法名指定路由策略,以及根据请求参数决定不同的路由策略,同时也能够支持就近访问,优先访问本机房的服务。

3.jpg

2. 监控 - CAT

对微服务来说,没有了监控就好比瞎子一样,什么也不清楚。CAT 提供了分布式链路追踪的能力,可以提供很好的报表,以及场景化的问题分析。

有时,需要了解服务总的请求量以及单机的请求分布和 QPS,或者还要知道服务的执行耗时及 99 线。CAT 的聚合报表可以帮助我们更好的了解服务的健康状况。

4.png

对于超时,可能需要知道哪个阶段变慢,客户端还是服务端,序列化阶段还是服务执行过程太慢。对于异常报错,可以看到哪个过程出现的异常,同时会打印异常堆栈信息,帮助问题的定位。

5.png

3. 监控-Metrics

框架人员需要了解公司服务的宏观情况,比如各机房都有哪些服务,哪些服务使用了 protobuf 序列化格式,哪些服务使用了 SOA 协议等,以及平均执行耗时等情况。业务同事可能也想知道自己服务具体情况,比如有哪些调用方,线程池是否已经跑满了。

通过接入携程的 Dashboard,可以提供全局的总量、错误量、线程池统计信息,也可以根据机房、协议、序列化格式等聚合数据。还能够自定义告警规则,在问题发生时能够尽早的介入。

6.png

4. 动态配置

对业务同事来说,有可能会存在依赖的服务突然变慢导致客户端超时的情况。框架人员可能需要在机房故障时,需要全局调整 check 为 false,以解决 A B 服务循环依赖谁都无法启动的问题。动态配置提供了配置热生效的能力,不需要为了一个配置重新发布,成本很高。

服务端的多个方法,可能执行耗时也会有所不同,通过多级别的参数配置,可以设置服务默认超时为 1s,单独为执行较慢的方法设置独立的超时时间为 5s。

服务 Owner 可能更清楚自己服务的耗时,通过服务端对客户端的参数设置,不需要每个调用方都设置一次超时,设置的时间也会更合理一些。为了避免配置出错带来的损失,我们提供了友好的可视化界面。

7.png

5. SOA 协议及互通

为了支持现有客户端迁移到 CDubbo,需要考虑支持现有的 SOA 协议。除了要确保兼容 HTTP 1.1 协议不变,其次要保证跟客户端的序列化器一致。

CDubbo 会通过 Tomcat 端口接收 SOA 协议的请求,利用现有的序列化器执行请求对象的转换,并保证 Dubbo 内部调用和 Filter 链路的一致性,确保业务逻辑的统一,也就是业务代码不需要改动,就可以启动两个协议。

8.png

6. 测试平台

对于私有的二进制协议来说,没有现成的 Postman 等工具可以使用。有时,开发人员需要在本地验证测试环境的服务,也可能要验证本地启动的服务端,每个开发人员都构造一个客户端显得成本比较高。

通过 VI(github 开源叫 coreStone),以及利用 Dubbo 2.7.3 提供的元数据中心和泛化调用能力,我们实现了类似 postman 的调用工具。不但可以支持直连,也能够支持本地测试,同时还可以支持 protobuf 序列化格式。关于 protobuf 序列化的测试方案,已经贡献到 dubbo 社区,感兴趣的同学可以自行了解。

9.png

7. 升级 Dubbo 2.7.3

关于 Dubbo 2.7.3 的详细升级历程,可以参考:https://www.infoq.cn/article/kOxdaV3y9fMZ0Bzs0jb2

现在回顾下升级的最终结果如何。目前,携程 99% 的服务已经跑在 dubbo 2.7.3 之上,迄今为止 0 故障,只有一些不兼容的小问题,对于不兼容的问题也是确保了编译时提前暴露,运行时没有任何问题。

在发布后,也陆续的出现了一些小的问题,比如预热能力不生效,异常情况下不会回调 onError 等问题,支持服务端异步的 Trace 埋点等,这些问题已经在开源版本彻底修复了。

8. Threadless

业务同事反馈,需要把线程控制在理想的范围之内。但是,dubbo 的线程数量太多,一方面是服务级独享线程池,当调用方依赖了 10 个服务,每个服务的 QPS 为 1,lantency 可能只有 10ms 的情况下,由于每个服务独立线程池,至少也需要 10 个线程了。如果多服务共享一个线程池,由于客户端默认是 Cached 的线程池模式,那么在这个场景下可能只要 1 个线程就足够了。另一方面,对同步服务来说,dubbo 2.7.5 的 threadless 可以省去 DubboClientHandler 线程,Netty IO 线程直接把响应交给业务线程,从而节省了一次线程切换。

通过实践,业务线程数量有了很大程度的下降,在高 QPS 以及依赖服务数量较多的情况下,甚至可以下降 60-70%。

10.png

9. CDubbo 服务体系

现有 CDubbo 的服务体系,同时支持 Dubbo 和 SOA 协议,对于 Dubbo 客户端能够支持 TCP 协议的传输,对于现有的 SOA 客户端,能够兼容现有的 SOA 协议。

同时,也能够支持内网和外网 gateway 的请求,保证了多协议的配置统一,以及兼容了 SOA 的序列化格式。

11.jpg

10. 性能表现

从协议层面来看,Dubbo 协议的响应较 SOA 协议有所提升,平均耗时从之前的 1ms 降低到了 0.3ms 左右,当然具体提升也要根据服务的报文及请求量有所差异。

12.png

可能有些人会觉得几毫秒的性能提升不足以挂齿,但是性能的稳定性对服务来说会很重要。我们观察了服务流量突增 3-4 倍的情况下,客户端还能保持 0 异常。长连接的多路复用,提供了很好的抗冲击能力。

13.png

11. 扩展性

微服务框架跟业务代码耦合比较重,框架人员主要是用 20% 的时间解决业务 80% 的需求,另外 20% 的需求却需要 80% 时间的问题,更适合留给业务自己去解决,能够提供这个能力的唯有扩展性,dubbo 无论横向和纵向的扩展能力都很好。

通过实践,发现业务的确在各个层级都有自己的扩展。例如:业务扩展了 Router 层,支持自己的路由规则,扩展了负载均衡策略,机票同事甚至扩展了 Transport 层换成了适合自己的传输协议。

14.png

12. 生态

好的生态,可以降低开发成本,例如利用现有的开源 dubbo admin,dubbo go 等组件。另外,也可以降低业务的学习成本,在其他公司学习的 dubbo 框架,到了携程还可以接着用,不需要重新学习私有的服务框架。技术支持也比较少,很多业务同事甚至比我们还熟悉 dubbo 框架。

15.png

13. Dubbo 协议现有问题 & Dubbo 3.0 规划

除了前面提到的 Dubbo 框架得到业界广泛认可的优点,在我们实践的过程中,也发现了现有的 Dubbo 2.x 版本协议存在的一些不足,比如在云原生大背景下,协议对网关不够友好,缺乏移动端的轻量级 SDK 等。据我们与 Dubbo 官方维护团队的深度交流,这些点也都是当前 Dubbo 3.0 在重点突破的方向,如下一代协议、应用级服务发现、云原生基础设施支持等,携程作为 Dubbo 深度用户也将持续的参与到 Dubbo 3.0 的建设与落地过程中。

16.png

未来(Service Mesh)

网上关于 Service Mesh 的意义讲了很多,众说纷纭,个人认为可能最主要还是以下几点。

  • 标准化意味着更低的成本,比如研发成本低,学习成本也比较低,其他公司学习的微服务框架,到携程还可以继续用,省去了学习和踩坑的成本;
  • 进程解耦,框架同学可能比较感兴趣,中间件无法独立升级的问题一直困扰着框架研发同学,在这个问题上,envoy 可以独立升级也是值得期待的;
  • 通过下沉,复用了云基础设施的一些能力,一方面,能够更好的支持多语言,业务根据自己的场景选择合适的语言,另一方面,通过下沉也能够让 SDK 更简单,减少Jar依赖的兼容性问题;
  • 因为更加标准以及下沉,能够带来更好的云部署能力,业务出海时可以根据实际情况部署需要的组件,不再依赖框架全家桶了。

17.png

1. Service Mesh SDK

下图是 Istio 官网提供的 Service Mesh 架构图,如果说 Istio 解决了控制平面的标准化,envoy 或者 sofa-mosn 解决了数据平面的标准化,那么对于 SDK 来说,是否需要有个标准化的组件,或者是否存在适合我们的标准的 SDK 呢?

对于部分中小公司,没有自己的中间件团队,可能会选择商业版 SDK。但是,对于携程这样的规模,对扩展性要求很强,同时已经存在上千 dubbo 服务的公司来说,我们可能更期待 3.0 的标准协议。

18.png

2. 现有协议不适合下沉

现有的 SOA 协议可能不太适合作为标准协议,基于 Http 1.1 的文本协议,跟 TCP 协议相比,建连带来的成本,很大程度上会导致长尾,影响服务的稳定性。

19.png

Dubbo 协议由于对网关不太友好,同时存在着跨语言和协议穿透性等问题,envoy 本身也可以理解为单机网关代理,所以也不太适合作为标准协议。

其次,存在的跨语言和协议穿透性问题,阿里刘军同学有过分享,感兴趣的同学可以参考:https://www.infoq.cn/article/y5HC2JjtAvMWYILmVILU

3. 新协议

既然现有的协议都不太适合,是否可以考虑云原生的标准协议 gRPC。没错,从协议层面来看,这个选择没有问题,但是 gRPC 跟 proto 强绑定的问题,需要携程现有的几千个服务重写业务逻辑代码,这个成本可是无法被接受的。

我们对于新的协议的期待,应该是能够基于 POJO 对象,同时还要符合 gRPC 协议规范。一方面,能够很好的利用云原生的基础能力。另一方面,对于小众语言,也可以利用现有的 gRPC 框架实现与主流 SDK 的互通。

20.jpg

对于新的 SDK,不但要有标准的传输协议,同时考虑到服务框架与业务的紧密耦合,扩展性也是要保留的主要的特性,还需要考虑 API 的标准化,利用统一的监控组件。

4. 总结

现在,我们实现了 SDK 的部分标准化。未来,我们一定会在云原生的道路上走的更快,更稳,更标准。

21.png

有奖互动

9 月 4 日 11:00 前在阿里巴巴公众号留言区写下你关于微服务架构的思考或问题,点赞前 5 名即可获得《携程架构实践》图书一本

阿里巴巴云原生关注微服务、Serverless、容器、Service Mesh 等技术领域、聚焦云原生流行技术趋势、云原生大规模的落地实践,做最懂云原生开发者的公众号。”

相关文章
|
6天前
|
Kubernetes 负载均衡 Docker
构建高效后端服务:微服务架构的探索与实践
【10月更文挑战第20天】 在数字化时代,后端服务的构建对于任何在线业务的成功至关重要。本文将深入探讨微服务架构的概念、优势以及如何在实际项目中有效实施。我们将从微服务的基本理念出发,逐步解析其在提高系统可维护性、扩展性和敏捷性方面的作用。通过实际案例分析,揭示微服务架构在不同场景下的应用策略和最佳实践。无论你是后端开发新手还是经验丰富的工程师,本文都将为你提供宝贵的见解和实用的指导。
|
4天前
|
监控 Cloud Native Java
云原生架构下微服务治理策略与实践####
【10月更文挑战第20天】 本文深入探讨了云原生环境下微服务架构的治理策略,通过分析当前技术趋势与挑战,提出了一系列高效、可扩展的微服务治理最佳实践方案。不同于传统摘要概述内容要点,本部分直接聚焦于治理核心——如何在动态多变的分布式系统中实现服务的自动发现、配置管理、流量控制及故障恢复,旨在为开发者提供一套系统性的方法论,助力企业在云端构建更加健壮、灵活的应用程序。 ####
44 10
|
4天前
|
监控 API 持续交付
构建高效后端服务:微服务架构的深度探索
【10月更文挑战第20天】 在数字化时代,后端服务的构建对于支撑复杂的业务逻辑和海量数据处理至关重要。本文深入探讨了微服务架构的核心理念、实施策略以及面临的挑战,旨在为开发者提供一套构建高效、可扩展后端服务的方法论。通过案例分析,揭示微服务如何帮助企业应对快速变化的业务需求,同时保持系统的稳定性和灵活性。
28 9
|
4天前
|
运维 Cloud Native 持续交付
云原生架构下的微服务设计原则与实践####
【10月更文挑战第20天】 本文深入探讨了云原生环境中微服务设计的几大核心原则,包括服务的细粒度划分、无状态性、独立部署、自动化管理及容错机制。通过分析这些原则背后的技术逻辑与业务价值,结合具体案例,展示了如何在现代云平台上实现高效、灵活且可扩展的微服务架构,以应对快速变化的市场需求和技术挑战。 ####
23 7
|
4天前
|
监控 Cloud Native 持续交付
云原生架构下微服务的最佳实践与挑战####
【10月更文挑战第20天】 本文深入探讨了云原生架构在现代软件开发中的应用,特别是针对微服务设计模式的最优实践与面临的主要挑战。通过分析容器化、持续集成/持续部署(CI/CD)、服务网格等关键技术,阐述了如何高效构建、部署及运维微服务系统。同时,文章也指出了在云原生转型过程中常见的难题,如服务间的复杂通信、安全性问题以及监控与可观测性的实现,为开发者和企业提供了宝贵的策略指导和解决方案建议。 ####
27 5
|
4天前
|
Kubernetes Cloud Native 持续交付
云原生架构下的微服务设计原则与最佳实践##
在数字化转型的浪潮中,云原生技术以其高效、灵活和可扩展的特性成为企业IT架构转型的首选。本文深入探讨了云原生架构的核心理念,聚焦于微服务设计的关键原则与实施策略,旨在为开发者提供一套系统性的方法论,以应对复杂多变的业务需求和技术挑战。通过分析真实案例,揭示了如何有效利用容器化、持续集成/持续部署(CI/CD)、服务网格等关键技术,构建高性能、易维护的云原生应用。文章还强调了文化与组织变革在云原生转型过程中的重要性,为企业顺利过渡到云原生时代提供了宝贵的见解。 ##
|
6天前
|
监控 安全 Java
构建高效后端服务:微服务架构深度解析与最佳实践###
【10月更文挑战第19天】 在数字化转型加速的今天,企业对后端服务的响应速度、可扩展性和灵活性提出了更高要求。本文探讨了微服务架构作为解决方案,通过分析传统单体架构面临的挑战,深入剖析微服务的核心优势、关键组件及设计原则。我们将从实际案例入手,揭示成功实施微服务的策略与常见陷阱,为开发者和企业提供可操作的指导建议。本文目的是帮助读者理解如何利用微服务架构提升后端服务的整体效能,实现业务快速迭代与创新。 ###
30 2
|
7天前
|
Java API 微服务
微服务架构:解密微服务的基本概念
微服务架构:解密微服务的基本概念
22 0
|
8天前
|
运维 Kubernetes 开发者
构建高效后端服务:微服务架构与容器化技术的结合
【10月更文挑战第18天】 在数字化转型的浪潮中,企业对后端服务的要求日益提高,追求更高的效率、更强的可伸缩性和更易于维护的系统。本文将探讨微服务架构与容器化技术如何结合,以构建一个既灵活又高效的后端服务体系。通过分析当前后端服务面临的挑战,介绍微服务和容器化的基本概念,以及它们如何相互配合来优化后端服务的性能和管理。本文旨在为开发者提供一种实现后端服务现代化的方法,从而帮助企业在竞争激烈的市场中脱颖而出。
11 0
|
21天前
|
缓存 监控 API
探索微服务架构中的API网关模式
【10月更文挑战第5天】随着微服务架构的兴起,企业纷纷采用这一模式构建复杂应用。在这种架构下,应用被拆分成若干小型、独立的服务,每个服务围绕特定业务功能构建并通过HTTP协议协作。随着服务数量增加,统一管理这些服务间的交互变得至关重要。API网关作为微服务架构的关键组件,承担起路由请求、聚合数据、处理认证与授权等功能。本文通过一个在线零售平台的具体案例,探讨API网关的优势及其实现细节,展示其在简化客户端集成、提升安全性和性能方面的关键作用。
62 2