ServiceMesh究竟解决什么问题?

本文涉及的产品
应用型负载均衡 ALB,每月750个小时 15LCU
网络型负载均衡 NLB,每月750个小时 15LCU
简介: 架构演进,永无穷尽,痛点多了,自然要分层解耦。

SM,第一篇

 

服务网格(ServiceMesh)这两年异常之火,号称是下一代微服务架构,接下来两个月,准备系统性的写写这个东西,希望能够让大家对最新的架构技术,有个初步的了解。

画外音:我的行文的风格了,“为什么”往往比“怎么样”更重要。

 

互联网公司,经常使用的是微服务分层架构

随着数据量不断增大,吞吐量不断增加,业务越来越复杂,服务的个数会越来越多,分层会越来越细,除了数据服务层,还会衍生出业务服务层前后端分离等各种层次结构。
 

不断发现主要矛盾,抽离主要矛盾,解决主要矛盾,架构自然演进了,微服务架构,潜在的主要矛盾会是什么呢?

 

引入微服务架构,一般会引入一个RPC框架,来完成整个RPC的调用过程。
image.png

如上图粉色部分所示,RPC分为:

  • RPC-client,它嵌在调用方进程里

  • RPC-server,是服务进程的基础

    不只是微服务,MQ也是类似的架构:
    image.png

    如上图粉色部分所示,MQ分为:

    • MQ-send-client

    • MQ-server

    • MQ-recv-client

     

    框架只是第一步,越来越多和RPC,和微服务相关的功能,会被加入进来。

     

    例如:负载均衡
    image.png

    如果要扩展多种负载均衡方案,例如:

    • 轮询

    • 随机

    • 取模

    • 一致性哈希

    RPC-client需要进行升级。

     

    例如:数据收集
    image.png

    如果要对RPC接口处理时间进行收集,来实施统一监控与告警,也需要对RPC-client进行升级。

    画外音,处理时间分为:

    • 客户端视角处理时间

    • 服务端视角处理时间

    如果要收集后者,RPC-server也要修改与上报。

     

    又例如:服务发现
    image.png

    服务新增一个实例,通知配置中心,配置中心通知已注册的RPC-client,将流量打到新启动的服务实例上去,迅猛完成扩容。

     

    再例如:调用链跟踪
    image.png

    如果要做全链路调用链跟踪,RPC-client和RPC-server都需要进行升级。

     

    下面这些功能:

    • 负载均衡

    • 数据收集

    • 服务发现

    • 调用链跟踪

    其实都不是业务功能,所以互联网公司一般会有一个类似于“架构部”的技术部门去研发和升级相关功能,而业务线的技术部门直接使用相关框架、工具与平台,享受各种“黑科技”带来的便利。

     

    完美!!!

     

    理想很丰满,现实却很骨感,由于:

    • RPC-client,它嵌在调用方进程里

    • RPC-server,是服务进程的基础

     

    往往会面临以下一些问题:

    • 业务技术团队,仍需要花时间去学习、使用基础框架与各类工具,而不是全心全意将精力花在业务和产品上

    • client要维护m个版本, server要维护n个版本,兼容性要测试m*n个版本

    • 如果要支持不同语言,往往要开发C-client,Python-client,go-client,Java-client多语言版本

    • 每次“黑科技”的升级,都需要推动上下游进行升级,这个周期往往是以季度、半年、又甚至更久,整体效率极低

    画外音:兄弟,贵司推广一个技术新产品,周期要多长?

     

    这些耦合,这些通用的痛点,有没有办法解决呢?

    一个思路是,将服务拆分成两个进程,解耦。
    image.png

  • 一个进程实现业务逻辑(不管是调用方,还是服务提供方),biz,即上图白色方块

  • 一个进程实现底层技术体系,proxy,即上图蓝色方块

画外音:负载均衡、监控告警、服务发现与治理、调用链…等诸多基础设施,都放到这一层实现。

  • biz和proxy共同诞生,共同消亡,互为本地部署,即上图虚线方框

  • biz和proxy之间,为本地通讯,即上图黑色箭头

  • 所有biz之间的通讯,都通过proxy之间完成,proxy之间才存在远端连接,即上图红色箭头

 

这样就实现了“业务的归业务,技术的归技术”,实现了充分解耦,如果所有节点都实现了解耦,整个架构会演变为:
image.png

绿色为biz

蓝色为proxy

整个服务集群变成了网格状,这就是Service Mesh服务网格的由来。

 

架构演进,永无穷尽,痛点多了,自然要分层解耦。希望大家有收获,后续再细聊SM的设计与架构细节。

 

思路比结论更重要。

本文转自“架构师之路”公众号,58沈剑提供。

相关实践学习
消息队列RocketMQ版:基础消息收发功能体验
本实验场景介绍消息队列RocketMQ版的基础消息收发功能,涵盖实例创建、Topic、Group资源创建以及消息收发体验等基础功能模块。
消息队列 MNS 入门课程
1、消息队列MNS简介 本节课介绍消息队列的MNS的基础概念 2、消息队列MNS特性 本节课介绍消息队列的MNS的主要特性 3、MNS的最佳实践及场景应用 本节课介绍消息队列的MNS的最佳实践及场景应用案例 4、手把手系列:消息队列MNS实操讲 本节课介绍消息队列的MNS的实际操作演示 5、动手实验:基于MNS,0基础轻松构建 Web Client 本节课带您一起基于MNS,0基础轻松构建 Web Client
目录
相关文章
|
6月前
|
负载均衡 Kubernetes Cloud Native
OpenKruise 是一个基于 Istio 的云原生服务网格
OpenKruise 是一个基于 Istio 的云原生服务网格
74 10
|
Cloud Native 前端开发 JavaScript
《Envoy 代理:云原生时代的流量管理》
《Envoy 代理:云原生时代的流量管理》
127 0
|
Kubernetes Cloud Native API
云原生Istio架构和组件介绍 2
云原生Istio架构和组件介绍
191 0
|
负载均衡 监控 前端开发
云原生Istio架构和组件介绍 1
云原生Istio架构和组件介绍
194 0
|
1天前
|
Kubernetes Cloud Native 持续交付
容器化、Kubernetes与微服务架构的融合
容器化、Kubernetes与微服务架构的融合
6 1
|
25天前
|
监控 安全 Cloud Native
云原生安全:Istio在微服务架构中的安全策略与实践
【10月更文挑战第26天】随着云计算的发展,云原生架构成为企业数字化转型的关键。微服务作为其核心组件,虽具备灵活性和可扩展性,但也带来安全挑战。Istio作为开源服务网格,通过双向TLS加密、细粒度访问控制和强大的审计监控功能,有效保障微服务间的通信安全,成为云原生安全的重要工具。
40 2
|
1月前
|
Kubernetes Cloud Native 云计算
云原生时代的技术演进:Kubernetes与微服务架构的完美融合
随着云计算技术的飞速发展,云原生概念逐渐深入人心。本文将深入探讨云原生技术的核心——Kubernetes,以及它如何与微服务架构相结合,共同推动现代软件架构的创新与发展。文章不仅剖析了Kubernetes的基本工作原理,还通过实际案例展示了其在微服务部署和管理中的应用,为读者提供了一条清晰的云原生技术应用路径。
79 2
|
人工智能 运维 Kubernetes
服务网格规模化应用下的Istio Sidecar配置管理挑战与实践|IstioCon 2022
阿里云服务网格 ASM 在帮助客户落地实践过程中发现,随着集群管理的规模增长和配置复杂度的提升,对于不同的工作负载,目前 Sidecar 代理配置不够灵活。希望通过本次分享,能帮助大家在不同的业务场景下灵活配置 Sidecar 代理的配置来满足个性化需求、优化系统性能。
993 11
服务网格规模化应用下的Istio Sidecar配置管理挑战与实践|IstioCon 2022
下一篇
无影云桌面