基于开源体系的云原生微服务治理实践与探索

本文涉及的产品
性能测试 PTS,5000VUM额度
应用实时监控服务-可观测链路OpenTelemetry版,每月50GB免费额度
函数计算FC,每月15万CU 3个月
简介: 2020 年,公司正式开始探索落地 Service Mesh 项目。目前,相关产品已经在生产环节正式落地,正在进行接入推广工作。

作者:董艺荃|携程服务框架负责人


携程微服务产品的发展历程


1.png


携程微服务产品起步于 2013 年。最初,公司基于开源项目 ServiceStack 进行二次开发,推出 .Net 平台下的微服务框架 CServiceStack。


2014 年,公司推出 Java 平台下同 CServiceStack 完全互通的自研微服务框架 Baiji 和第一代服务注册中心。该服务注册中心后续经历多次重构,目前使用的已是第四代产品。


2017 年,公司正式引进开源产品 Dubbo,推出整合携程治理能力的 CDubbo 框架。该框架最初基于 Dubbo 2.5.4 版本进行二次开发,经历多次版本升级后,目前使用 Dubbo 2.7.7 版本。


2020 年,公司正式开始探索落地 Service Mesh 项目。目前,相关产品已经在生产环节正式落地,正在进行接入推广工作。


2.png


携程微服务产品情况复杂,主要在于以下四点。


第一,线上同时运行着三种微服务框架产品。


第二,同时采用 HTTP 和 Dubbo 两种通信协议。


第三,采用完全自研的基础设施,包括注册中心和配置中心。


第四,现存 8000 多个线上服务,实例数超过 10 万个。


3.png


随着研发的深入,我们团队主要遇到了以下三点问题。


第一,维护多个功能类似的中间件产品工作量较大,保证产品之间功能对齐需要花费大量的精力。


第二,由于产品以 SDK 公共依赖包的形式集成在业务应用内,进行版本升级需要业务方配合,推动升级比较困难,版本长尾问题严重。


第三,由于团队工作精力和技术栈的限制,只有少数几个语言平台上存在 SDK 支持,不利于小众语言用户使用微服务产品。


携程的云原生微服务架构设计


4.png

由于线上集群已初具规模,如何平滑过度和迁移框架成为关键问题。彻底抛弃现有基础设施,一步到位实现全面云原生,不仅实施难度较大,项目周期也比较长。


因此,项目决定采用“小步快走”的方式。首先保证代码完全向后兼容,其次保证整体架构支持业务应用迁移,提升接入容错率。


5.png


项目进行架构设计时,遇到了三个关键的问题。


数据权威问题:常见的 Service Mesh 实践以 K8S 为准则,将所有的数据保存在 K8S 内,但平台现有数据大部分保存在自研的注册中心和配置中心内。


有方案提出采用两条推送路的方式,云内数据保存在 K8S 内,云外数据保存在现有注册中心里,通过外部工具或组件实现双向同步。但双向同步复杂度较高,既要保证数据的准确性和实时性,也要保证同步不成环。


因此,出于架构简便性考虑,项目最终选择保持注册中心数据权威地位不变,通过外部组件将数据写入 K8S。


边界划分问题:目前的项目部署体系是一个 Region 内包含多个 Zone,一个 Zone 内又包含多个 K8S 集群,集群之间网络互通。但由于故障隔离的需要,数据最好保持在 Zone 内收敛,使实例信息不需要进行跨 Zone 同步。


Zone 内收敛存在的问题是当调用方发起跨 Zone 调用时,需要经过网关进行中转。这种调用方式和现有的调用链路存在差异,会提高计算复杂度。


因此,项目最终选择保持现有工作模式不变,使得调用方能够获取 Region 内所有的 Zone 服务实例,保持数据在 Region 内透明。


技术选型问题:过去,项目研发产品大部分采用自研模式,通过整个团队成员协作完成开发工作,而依托开源社区能够更容易地产出优秀产品。


因此,项目最终选择基于开源产品进行二次开发。


6.png


目前所使用的 Service Mesh 架构设计,也被称为“渐进性”架构,主要有三个方面的特点。


开源方面:选择 Istio 和 Envoy 作为 Service Mesh 的基础设施。


实例和配置同步方面:由新开发的 SOA Operator 负责将存储在注册中心和配置中心中的数据写入 K8S。


同时,该程序也会把K8S集群内服务提供方的数据写入注册中心,使得 K8S 集群外用户也能够正常读取服务数据。并且,该服务不需要 SDK 支持,由 SOA Operator 直接完成注册和发现,任何语言都可以方便地接入微服务产品体系。


使用方面:K8S 集群外的应用仍然使用过去的交互方式,通过SDK和注册中心进行通信。


K8S 集群内的应用,如果使用 SDK,检测到 Sidecar 存在之后,SDK 会自动地关闭服务治理功能,使用特殊的 host 进行请求。如果不存在 SDK 支持,接入 Mesh 可以直接使用 HTTP Client,继续使用特殊的 host 发起请求。


7.png


HTTP 协议在 Service Mesh 架构上运行良好,但 Dubbo 协议在 Sidecar 网关上存些一些问题。


其一,元数据的位置:HTTP 协议中元数据位于报文最前端,而 Dubbo 协议中元数据位于报文末端,因此需要先解析报文才能定位到元数据位置。


其二,序列化问题:解析报文需要对报文进行反序列化处理,目前 Envoy 支持 Dubbo 默认序列化协议。但这种方式会产生额外开销,而且 Dubbo 服务使用的序列化器复杂,甚至还有一些团队为进一步降低报文大小,使用了压缩算法,网关解析难度大。


8.png


Dubbo 3 推出了 Triple,这是一种使用基于 HTTP/2 的 gRPC 并通过请求标头实现元数据信息传递的通信协议,也是 Dubbo 3 中推荐使用的服务通信协议。


Triple 协议适用于 Envoy 框架,且能轻松接入 Service Mesh。Dubbo 版本升级也并不复杂。


9.png


由于 gRPC 的 PB 序列化格式,Triple 协议无法直接使用。尽管 Triple 协议对 PB 兼容性较好,但 PB 要求先写契约再生成代码,而 Dubbo 要求先写代码,不存在契约,数据模型也是与 PB 对象完全不同的 POJO 格式。


为了连接 POJO 和 PB 对象,Triple 协议设计了 Wrapper。将原 POJO 对象序列化处理得到二级数据后,传入到 Wrapper 用 PB 进行序列化。


然而,这种方式不仅会导致内存占用变大,而且会引发更多的 GC。多次 GC 和重复序列化将会增大 CPU 负载。


10.png


为解决 Triple 协议带来的问题,项目给 gRPC 添加了自定义序列化器。这样不仅可以实现流式的序列化,也可以为用户提供和原生 Dubbo 一样的使用体验。


其他语言想要调用这种 gRPC 服务,只需要具备这种自定义序列化器即可,默认的自定义序列化器 JSON 可以被大部分语言解析。


11.png


治理方面,Service Mesh 使用 Istio 和 Envoy 作为基础设施,通过 Istio 读取  K8S 中 CRD 数据,并生成配置推送给 Envoy。


因此,保存在自研服务治理系统里内的实例数据、配置数据必须全部转化成 CRD 格式,同步到 K8S 以供 Istio 处理。


Operator 作为翻译机包含了大量模型转换逻辑,能够将配置模型翻译成 CRD 模型。针对一些复杂的功能,项目通过 Envoyfilter 或者 Envoy 的二次开发,添加自定义的 Envoyfilter 进行实现。


目前,所有的常用功能都已完成对齐,整体功能覆盖率超 90%。数千个线上应用完成接入,进入后续接入推广工作。


云原生微服务产品的未来发展趋势


12.png


Service Mesh 提供的都是通用能力,如分组、路由、流量控制、负载均衡等。这些功能本身没有语义,一线的业务研发和运维人员理解起来存在一定困难。


而且,该产品功能与现存治理系统的功能存在差异。为了给一线人员提供更好的微服务治理体验,需要将实际运维需求和底层控制数据联系起来。


13.png


目前,社区内 Dubbo Mesh 的研发工作也在积极进行,其做法跟携程云原生微服务治理框架类似。通过单独的控制面将配置数据写到 K8S 里,将实例数据通过 MCP 进行同步。


14.png


另外,新的开源产品 OpenSergo 也在研发中。据官方介绍,该项目力图打造一套通用的面向云原生的微服务治理标准,并且提供一系列的 API 和 SDK 实践。


目前,多家大型互联网企业和开源社区正在共同推进该项目的进行,希望能够完成从服务治理到云原生基础设施的全链路生态覆盖。

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
6天前
|
Cloud Native 安全 数据安全/隐私保护
云原生架构下的微服务治理与挑战####
随着云计算技术的飞速发展,云原生架构以其高效、灵活、可扩展的特性成为现代企业IT架构的首选。本文聚焦于云原生环境下的微服务治理问题,探讨其在促进业务敏捷性的同时所面临的挑战及应对策略。通过分析微服务拆分、服务间通信、故障隔离与恢复等关键环节,本文旨在为读者提供一个关于如何在云原生环境中有效实施微服务治理的全面视角,助力企业在数字化转型的道路上稳健前行。 ####
|
6天前
|
运维 Kubernetes Cloud Native
云原生技术入门及实践
【10月更文挑战第39天】在数字化浪潮的推动下,云原生技术应运而生,它不仅仅是一种技术趋势,更是企业数字化转型的关键。本文将带你走进云原生的世界,从基础概念到实际操作,一步步揭示云原生的魅力和价值。通过实例分析,我们将深入探讨如何利用云原生技术提升业务灵活性、降低成本并加速创新。无论你是云原生技术的初学者还是希望深化理解的开发者,这篇文章都将为你提供宝贵的知识和启示。
|
6天前
|
Cloud Native 安全 API
云原生架构下的微服务治理策略与实践####
—透过云原生的棱镜,探索微服务架构下的挑战与应对之道 本文旨在探讨云原生环境下,微服务架构所面临的关键挑战及有效的治理策略。随着云计算技术的深入发展,越来越多的企业选择采用云原生架构来构建和部署其应用程序,以期获得更高的灵活性、可扩展性和效率。然而,微服务架构的复杂性也带来了服务发现、负载均衡、故障恢复等一系列治理难题。本文将深入分析这些问题,并提出一套基于云原生技术栈的微服务治理框架,包括服务网格的应用、API网关的集成、以及动态配置管理等关键方面,旨在为企业实现高效、稳定的微服务架构提供参考路径。 ####
27 5
|
7天前
|
负载均衡 监控 Cloud Native
云原生架构下的微服务治理策略与实践####
在数字化转型浪潮中,企业纷纷拥抱云计算,而云原生架构作为其核心技术支撑,正引领着一场深刻的技术变革。本文聚焦于云原生环境下微服务架构的治理策略与实践,探讨如何通过精细化的服务管理、动态的流量调度、高效的故障恢复机制以及持续的监控优化,构建弹性、可靠且易于维护的分布式系统。我们将深入剖析微服务治理的核心要素,结合具体案例,揭示其在提升系统稳定性、扩展性和敏捷性方面的关键作用,为读者提供一套切实可行的云原生微服务治理指南。 ####
|
6天前
|
弹性计算 Kubernetes Cloud Native
云原生技术的实践与思考
云原生技术的实践与思考
20 2
|
6天前
|
Cloud Native API 持续交付
云原生之旅:从容器到微服务的演进之路
【10月更文挑战第39天】在这篇文章中,我们将一起探索云原生技术的奥秘。通过浅显易懂的语言和生动的比喻,我们将了解云原生技术如何改变软件开发的世界。文章将带领读者从容器的基本概念出发,逐步深入到微服务架构的实践,揭示这些技术如何助力现代应用的快速迭代与可靠部署。准备好,让我们启程进入云原生的精彩世界吧!
|
7天前
|
运维 Kubernetes Cloud Native
云原生技术在现代应用架构中的实践与挑战####
本文深入探讨了云原生技术的核心概念、关键技术组件及其在实际项目中的应用案例,分析了企业在向云原生转型过程中面临的主要挑战及应对策略。不同于传统摘要的概述性质,本摘要强调通过具体实例揭示云原生技术如何促进应用的灵活性、可扩展性和高效运维,同时指出实践中需注意的技术债务、安全合规等问题,为读者提供一幅云原生技术实践的全景视图。 ####
|
11天前
|
设计模式 Java API
微服务架构演变与架构设计深度解析
【11月更文挑战第14天】在当今的IT行业中,微服务架构已经成为构建大型、复杂系统的重要范式。本文将从微服务架构的背景、业务场景、功能点、底层原理、实战、设计模式等多个方面进行深度解析,并结合京东电商的案例,探讨微服务架构在实际应用中的实施与效果。
51 6
|
11天前
|
设计模式 Java API
微服务架构演变与架构设计深度解析
【11月更文挑战第14天】在当今的IT行业中,微服务架构已经成为构建大型、复杂系统的重要范式。本文将从微服务架构的背景、业务场景、功能点、底层原理、实战、设计模式等多个方面进行深度解析,并结合京东电商的案例,探讨微服务架构在实际应用中的实施与效果。
27 1
|
2月前
|
安全 应用服务中间件 API
微服务分布式系统架构之zookeeper与dubbo-2
微服务分布式系统架构之zookeeper与dubbo-2