深度解读服务治理 & ServiceMesh、xDS

简介: 以下内容属自我思考,如理解有偏差、理解不透彻、现状梳理不清楚的请大家多指教。

1.微服务治理的难点


在服务很少的情况下,直观的讲:A---> B, A如何知道B服务的实例?A是不是要使用某种负载均衡策略去请求B?


0a3ef4829b1c029212d7d2b419de0c89.png


服务治理技术的演进,根源就在于此。


现代分布式体系,服务越来越多、服务的实例数也越来越多、互相调用犬牙交错、 服务环境多且切换频繁。技术上提出代理模型来统一管理服务注册/发现、负载均衡。


2.演进的法宝:代理


截止目前,从宏观上讲,演进出三种代理模型,并且并不强调哪种是最佳,适合的才是最好的。


2.1  模式一:集中式代理


服务数在个位数、 服务实例可枚举的中小体系, 可以采用这种集中代理模型,一般选用nginx负载均衡。


158bf4430ac25e4e0dc89e53c0180f0c.png


  • 因为直观、简单, 由开发人员或者框架组在代理上手动配置。


  • 容器、K8s内置了动态服务注册、服务发现功能,倒是不需要手动去配置ip和端口


2.2  模式二:客户端嵌入sdk代理


从代理功能, 强化分离出独立的服务注册模块


3dc1bbf3aaaa7bc4d19b61649e31b336.png


  • 直接变化是:A直接请求B, 但是A预先(随时感知到)B


  • 这种就比模型一智能一点:服务B自行注册、服务A自行发现, 这个“自行”都是通过sdk实现


  • 核心的服务注册、发现在逻辑上与应用分离


  • 很明显,独立的Service Registry现在除了关注自己 的核心功能外,还要负责接受心跳、维护实例状态, 通知调用方服务实例变更(可能通过推送或sdk轮询)


这种是目前市面上 开源注册中心的核心体系 , 这一套开发人员介入较多,运维人员介入较少。


2.3 模式三: 独立进程代理


再回顾模式二、 很明显,我们需要针对不同技术语言开发SDk,而且sdk是被发散部署在各应用上(实则脱离管控、碎片化)。


在技术、业务快速迭代、大规模部署实例的现实面前,模式二:[侵入式太强、业务方升级sdk没动力、sdk版本碎片化严重、sdk带包袱演进] 都极其费劲心力。


模型三的核心是将 服务注册、发现功能从原应用中剥离,以独立进程部署


  • 独立进程接管服务治理,还可以接手更细粒度的流量调度、负载均衡+鉴权


  • 独立进程在物理层面与应用分离 (有的是独立进程部署在主机,由主机上应用共享;有的是一对一部署在应用侧)


f03df146859f895d52b02e62162e2c3a.png


模式三因为对应用更加透明,独立进程的部署可能需要 运维人员更多精力, 当然如果是容器/k8s部署独立进程,可以规避很多环境、配置的琐碎差异。


3.  ServiceMesh


Service Mesh 基于模式三,它的职责是在由云原生应用组成服务的复杂拓扑结构下进行可靠的请求传送。


但比模式三更加抽象和纯粹。


  • 将模式三的Service Registry抽象为控制面, 可以对接多种服务注册Provider(k8s、Consul等)


这个与模式二、三 显式[服务注册--服务发现]还不一样,从[服务发现]升级为[请求分发], Service Mesh不做[服务注册]的功能,由集群内生机制将服务实例注册到控制面


  • 强调在“基础设施层”处理服务通信。


  • 它不是"服务"的网格, 而是“代理”的网格


数据层截获不同服务之间的调用并对其进行“处理”;控制层协调代理的行为,并为运维人员提供 API,用来操控和观测整个网络.


6d0ee3c35fbb182d20c681a9b0ca4a99.png


优势


  1. 服务治理和应用逻辑解耦


  1. 利用控制面API与服务注册中心解耦


  1. 通过将服务治理能力下沉到 基础设施,支持了异构系统的统一治理


劣势


  1. 因在基础设施层劫持流量,需要高级运维和开发通力配合


  1. 网络拓扑更加复杂,监测 定位 排障 变得更加困难


  1. 从调用链路看,服务网格是侵入式的,有毫秒级别的延迟


3.1  现状& 选型


服务不会频繁变更、服务实例不多的中小项目可以采用 经典的 集中式代理模式,稳定直观。


强调服务集成的中型项目可以采用 客户端嵌入sdk 服务注册、发现;


强调流量调度的中大项目可以采用 Service Mesh 模式。


作为一个企业,如果你的微服务应用已经具有了非常完备的服务治理能力,那么你不一定非得引入Service Mesh。但是假设你的系统并不具有完善的治理功能,或者系统架构中的痛点正好可以被 Service Mesh 所解决,那么使用 Service Mesh 就是你的最佳选择。


4. Istio是Service mesh的实现


4.1 Istio的能力


  • 为 HTTP、gRPC、WebSocket 和 TCP 流量自动负载均衡。


  • 通过丰富的路由规则、重试、故障转移和故障注入对流量行为进行细粒度控制。


  • 提供完善的可观察性方面的能力,包括对所有网格控制下的流量进行自动化度量、日志记录和追踪。


  • 提供身份验证和授权策略,在集群中实现安全的服务间通信。


支持的平台:


  • Kubernetes


  • Consul


  • GCP


这里面穿插几个已有答案的疑问?


  • Istio 中是如何做 sidecar 注入的?[1]


  • Sidecar proxy 是如何做透明流量劫持的?[2]


总结起来:istio注入sidecar,最好是结合k8s, 使用Init容器做一些劫持配置(修改iptables)


9c1a8ac87cca379aeca20e2b0b3375af.png


4.2  xDS


基于 xDS[3] 协议提供了标准的控制面规范,并以此向数据面传递服务信息和治理规则。

xDS是由Envoy贡献给istio,现在已经作为sidecar的标准协议。


v1 xDS API.  传统的REST-JSON API, 现在已经是ProtoBufffer和 REST/gRPC api

v2 xDS API. 21年初停用


xDS 是一组发现服务的总称,包含LDS,RDS,CDS,EDS以及SDS。


Envoy 通过xDS API 可以动态获取Listener(监听器),Route(路由),Cluster(集群/服务),Endpoint(集群成员/服务实例)以及Secret(秘钥)配置。


ac4c2840eb2e1f65eb9697f3bf68c0a4.png


xDS协议是基于gRPC实现的传输协议,即Envoy通过gRPC streaming订阅Pilot的资源配置。


Pilot借助ADS对API更新推送排序的能力,按照CDS-EDS-LDS-RDS 的顺序串行分发配置。


利用XDS协议,Envoy可以实现配置的完全动态化,配置实时更新而无需重启Envoy或者影响业务,此外,利用其L3/L4/L7 Filter机制,Envoy可以完全无侵入的扩展各种强大的功能。利用其内置的Tracing机制和Stats模块,可以很方便的实现对流量的跟踪以及监控,保证Envoy中流量的可观察性。


4.2.1 标准xDS流程


这里暂时一带而过,因为请求/响应结构体也很简单, 但是后面我们聊到[增量xDS] 会回过头来看。


0e8ca6cc533441c97d9b77fce0d1ad79.png


xDS协议分析


实际使用和性能考量中:设计者延伸出两种设计角度:


角度 --- --- ---后者-->前者带来了什么?
维护资源的方式 全量传输 增量传输 性能
资源下发的方式 单链独立资源 单链 多资源聚合 带来了强一致性的能力


这样就对应4种xDS效果:


  • State of the World(Basic xDS):全量传输 独立gRPC stream;


  • Incremental xDS:增量传输 独立gRPC stream;


  • Aggregated Discovery Service(ADS):全量传输 聚合gRPC stream;


  • Incremental ADS:增量传输 聚合gRPC stream (暂未实现);


早期的xDS协议是 全量传输 单链接 独立资源, 现在主流的还是全量传输 聚合gRPC Stream (ADS)


下面我们分析一下 设计者为什么要延伸出两个角度 ?


4.2.2 角度一:ADS (从规避流量损失的角度)


为什么设计者要延伸出这个聚合维度?或者说变更到这个主流方案?


因为有现实需要!


bb148bf0d0f14c8ca92c67dee7f186df.png


由于Envoy xDS采用最终一致性,部分流量可能在更新时被丢弃。


使用ADS可以解决[无法忍受数据丢弃的场景],


ADS为什么可以做到?


ADS通过一个连接(gRPC同一stream)申请多种资源/接受多种资源。


  • 能够保证请求一定落在同一Pilot上,解决多个管理服务器配置不一致的问题。
  • 通过顺序的配置分发,轻松解决资源更新顺序的问题。


按照这个方式CDS-EDS-LDS-RDS下发,由Polit控制,规避流量丢失的问题,这就是ADS设计的由来。


4.2.3 角度二:增量xDS  (从性能的角度)


[当配置发生变化时,仅下发和更新发生变化的配置部分]


如何实现?


这个时候就要回头看标准XDS协议的流程, 增量 xDS 客户端需要向服务器告知它已拥有的资源从而避免重复发送。


5b31fe3b60bed3170ca956894e247036.png

☺️以上便是本次输出的全部内容,因为已知原因略去一些隐私内容,  


主要解读了[服务治理]的演进过程、目前主流的 ServiceMesh的核心特征,以及xDS方案的演变过程,相比原中文官网垂直灌输式的输出,本文强调以流畅的思路来清楚表达演变过程,知其然更知其所以然, 如果觉得对你有所帮助,麻烦一键三连。

相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
6月前
|
Cloud Native 前端开发 JavaScript
《Envoy 代理:云原生时代的流量管理》
《Envoy 代理:云原生时代的流量管理》
45 0
|
7月前
|
负载均衡 监控 前端开发
云原生Istio架构和组件介绍 1
云原生Istio架构和组件介绍
131 0
|
7月前
|
Kubernetes Cloud Native API
云原生Istio架构和组件介绍 2
云原生Istio架构和组件介绍
105 0
|
29天前
|
Kubernetes SDN 微服务
微服务与 Kubernetes 容器云的边界
【2月更文挑战第30天】该文探讨了微服务与Kubernetes集群的关系,主要关注是否应跨多集群部署。理想的状况是每个微服务对应一个Kubernetes集群,配置和注册中心在同一集群内,以减少网络延迟。
|
9月前
|
Kubernetes 网络协议 Java
Istio入门——了解什么是服务网格以及如何在微服务体系中使用
Istio入门——了解什么是服务网格以及如何在微服务体系中使用
182 1
|
11月前
|
存储 负载均衡 网络协议
Envoy架构概览(3):服务发现
Envoy架构概览(3):服务发现
|
API 微服务 调度
基于网关服务治理的研究与实践(六)服务编排
本文是基于网关服务治理的研究与实践系列的第六篇文章,从以上几篇文章中,介绍了网关服务治理相关内容,包括微服务架构、服务治理相关概念、服务治理技术框架、API网关技术及自研网关,服务编排也是以上架构技术基础上的进一步深入的研究,也是服务治理领域非常值得研究的内容。
2341 7
基于网关服务治理的研究与实践(六)服务编排
|
运维 监控 前端开发
基于网关服务治理的研究与实践(二)服务治理
接上篇,本篇原创系列是对服务治理的相关背景说明,主要介绍了服务治理相关概念、技术及演进历程。
1357 1
基于网关服务治理的研究与实践(二)服务治理
|
缓存 Dubbo Java
OpenSergo 即将发布 v1alpha1,丰富全链路异构架构的服务治理能力
OpenSergo 标准到底是什么样子的呢?我们可以利用 OpenSergo 标准来做哪些事情呢?下面我们来结合几个例子来进行介绍。
388 1
OpenSergo 即将发布 v1alpha1,丰富全链路异构架构的服务治理能力
|
弹性计算 Cloud Native 安全
OpenSergo-服务治理标准化
企业用户云原生化进入深水区,企业微服务上云后,服务治理的问题逐步成为企业下一阶段的诉求。不管是从开源社区/ Github 上的反馈,还是从 workshop /线下活动的数据来看,服务治理都是容器用户最感兴趣的话题。
1856 0
OpenSergo-服务治理标准化