引言
从今天开始,我们将深入探讨服务网格(Service Mesh)这个领域的知识。尽管在我们的工作中可能还没有广泛应用,但服务网格确实是一种趋势。如果你还没有听说过这个概念,我希望你能够跟随我的步伐,一起了解这个特殊而重要的技术。首先,我将为大家介绍微服务的发展历程,从过去到现在,逐渐引入服务网格的概念,帮助大家全面理解这个领域的重要性。
微服务架构的特点
围绕业务构建团队
随着技术的不断发展,从最初的单体架构演变为现在的微服务架构。在单体架构中,页面、服务模块和数据库连接操作等都集中在一个系统中,尽管现在一些先进的公司已经将UI层剥离出来,但整体架构仍然相对单一。而微服务架构则将各个模块拆分成独立的微服务,每个微服务都有专门的开发人员负责,使得团队可以根据业务需求,组成几个人的小团队来开发单独的模块。这样的架构特点带来了更高的灵活性和扩展性,使得团队可以更加专注于各自负责的模块,提高开发效率和业务的可维护性。
去中心化的数据管理
去中心化的数据管理是微服务架构的一个重要特点。在传统的单体应用中,所有的业务数据都集中在一个数据库中。而在微服务架构中,每个微服务都可以拥有自己独立的数据库,负责维护自身所需的业务数据。这种去中心化的数据管理方式带来了一些优势。它可以提升数据库性能、增强系统的灵活性和可扩展性,同时也提高了系统的可维护性。这里我们不详细赘述了。
微服务架构的优势
微服务架构在团队层面和产品层面都带来了许多优势。
在团队层面,微服务架构鼓励团队内部的内聚性。每个微服务都专注于处理特定的业务功能,团队成员可以更加专注于自己负责的微服务开发和维护。这种独立开发业务的方式,使得团队成员可以更好地理解和掌握自己负责的业务领域,提高了开发效率和质量。
此外,由于每个微服务都是独立的,彼此之间没有直接的依赖关系。这意味着团队可以并行开发不同的微服务,不受其他团队的影响。团队成员之间的沟通和协作也更加简单和高效。
在产品层面,微服务架构的一个重要特点是服务的独立性。每个微服务都是一个独立的服务单元,可以独立部署和运行。这意味着当需要更新或修复某个微服务时,只需要针对该微服务进行部署,而不会影响其他微服务的正常运行。这样可以减少系统的停机时间和风险,提高了系统的可用性和容错性。
此外,由于每个微服务彼此独立,系统可以更加灵活地进行扩展。当某个微服务面临高并发或大数据量的情况时,可以单独对该微服务进行水平扩展,而不需要对整个系统进行扩展。这样可以避免资源的浪费,并且能够更好地应对系统的负载压力。
但是微服务是软件开发的最好选择吗?
微服务面临的问题
微服务架构中,服务间的网络调用是一个常见且容易出现问题的挑战。相较于单体架构,在微服务架构中,由于服务的细粒度拆分,服务调用链变得更加复杂。这意味着每个服务可能需要与其他多个服务进行通信,而每个网络调用都有可能引发潜在的故障或延迟。
为何网络通信是微服务的痛点
在微服务架构中,网络通信是一个常见的痛点,这是因为分布式计算中存在着一些被称为"分布式计算的8个谬论"(Fallacies of Distributed Computing)的观念误区。
网络是可靠的:实际上网络是容易受到各种因素干扰和故障的,如硬件故障、网络拥塞等,这可能导致服务之间的通信中断或延迟。
带宽是无限的:实际上网络带宽是有限的资源,当服务之间的数据传输量增加时,带宽可能变得紧张,导致网络通信的性能下降。
网络拓扑从不改变:实际上在分布式系统中,网络拓扑可能会因为硬件故障、网络设备调整等原因而发生变化,这会对服务之间的通信产生影响。
传输成本是0:实际上进行网络通信是需要消耗资源的,如网络带宽、计算能力等,因此进行大量的网络通信可能会导致成本增加。
网络延迟是0:实际上网络通信中存在着传输延迟,这取决于网络拓扑、网络负载、数据包大小等因素,这会对服务之间的通信性能产生影响。
还有一些观念误区,如网络是安全的、只有一个管理员、网络是同构的。
如何管理和控制网络间的通信
在微服务架构中,管理和控制网络间的通信是至关重要的。以下是一些常用的方法和策略:
- 服务注册/发现:通过服务注册和发现机制,服务可以在网络中注册自己的信息,并由其他服务发现和使用。这样可以实现动态的服务发现和调用,减少了对服务之间硬编码的依赖。
- 路由、流量转移:通过使用路由和流量转移机制,可以将请求从一个服务路由到另一个服务。这对于实现负载均衡、故障转移和容错是非常重要的。例如,可以使用负载均衡器来将请求分发到多个实例,以提高系统的性能和可靠性。
- 弹性能力(熔断、超时、重试):在网络通信中,存在各种故障和不可靠的情况。为了提高系统的弹性和容错能力,可以实现熔断、超时和重试机制。例如,当一个服务不可用或响应时间过长时,可以暂时关闭对该服务的请求,以避免系统的级联故障。
- 安全:网络通信中的安全性是非常重要的。可以使用各种安全措施,如身份验证、授权和加密,来保护服务之间的通信和数据的安全性。例如,可以使用HTTPS来加密网络通信,以防止信息被窃听或篡改。
- 可观测性:为了更好地管理和监控网络通信,可以引入可观测性的机制。这包括日志记录、指标收集和分析、分布式追踪等。通过收集和分析这些数据,可以获得对网络通信的实时和历史视图,以便进行故障排查、性能优化和系统监控。
如果你和我一样是以Java为主要开发语言,那么对于这些策略可能并不陌生,因为我们有一些成熟的开源框架可以用来解决这些问题。然而,问题来了,如果我们的系统不仅限于纯Java系统,还包含其他的业务系统,那么我们应该如何应对呢?
Service Mesh的前世今生
在前面,我们提出了一个问题:随着模块和节点的增多,微服务之间难免会遇到各种网络问题。为了解决这些问题,目前有一个解决方案,即使用Spring Cloud中的各个组件。然而,这种解决方案不仅需要更多的学习成本,而且对代码有一些要求,比如必须使用Java开发。这就导致了系统的单一性。因此,今天我们将讨论一下服务网格Service Mesh。
Service Mesh的演进
第一阶段:控制逻辑和业务逻辑耦合
在这个阶段,逻辑控制和业务逻辑的实现是紧密结合在一起的,缺乏明确的分离和解耦。
这种耦合会导致一些问题。首先,逻辑控制的变更会直接影响业务逻辑的实现,增加了代码的复杂性和维护的难度。其次,不同的业务逻辑可能需要不同的逻辑控制方式,但由于耦合在一起,无法灵活地应对变化。此外,难以实现对逻辑控制的统一管理和监控,影响了系统的可维护性和可扩展性。
第二阶段:公共库
在Service Mesh的演进过程中,第二阶段是引入公共库的阶段,旨在解耦逻辑控制和业务逻辑,消除重复代码,并降低开发和维护成本。然而,尽管公共库的引入在一定程度上实现了解耦,但它仍然存在一些问题和侵入性。比如Spring Cloud各个组件
首先,公共库的使用需要对特定的语言进行绑定,这限制了开发团队的选择和灵活性。如果系统中有多种语言的组件,就需要为每种语言编写对应的公共库,增加了开发和维护的复杂度。
其次,尽管公共库可以消除一些重复的代码,但仍然需要开发人员手动调用和集成公共库的功能。这种侵入性可能导致开发人员需要了解和掌握公共库的使用方式,增加了学习成本和开发时间。
此外,公共库的引入并没有完全解决控制逻辑和业务逻辑之间的耦合问题。虽然它提供了一种解耦的方式,但仍然需要开发人员在业务逻辑中显式调用公共库的功能,这仍然存在一定的依赖关系。
第三阶段:代理
代理作为一个中间层,位于应用程序和网络之间,负责处理网络通信逻辑。当应用程序需要发送HTTP请求时,它只需要将请求发送给代理,然后代理负责处理与服务器的通信。这样,应用程序的代码不再需要关注网络通信细节,可以更专注于业务逻辑的实现。尽管这个阶段的代理功能可能仍然比较简陋,但它的思路是正确的。
第四阶段:边车模式(Sidecar)
在第四阶段,Service Mesh的优化演进进入了边车模式(Sidecar)的阶段。边车模式是一种架构模式,它将代理作为一个独立的进程部署到应用程序旁边,形成一个边车,负责处理与网络通信相关的任务。
边车模式的优势在于进一步解耦了逻辑控制和业务逻辑,使得应用程序只需要关注自身的业务逻辑,而将网络通信逻辑交给边车来处理。边车通过与应用程序进行交互,拦截和处理所有的网络请求和响应,从而提供了更高级别的控制和管理能力。
边车模式的实现通常使用了轻量级容器技术,如Docker等,使得边车可以独立地部署和扩展。每个应用程序都有一个独立的边车,它们可以通过一个共享的Service Mesh控制平面进行协调和管理。
第五阶段:Service Mesh 的出现
在这个阶段,Service Mesh成为了一个独立的基础设施层,为应用程序提供了完整的服务通信管理解决方案。它通过在整个服务间通信路径上插入代理,实现了对通信的全面控制和管理。Service Mesh的出现使得服务间通信的管理变得更加简单和可靠,开发人员可以专注于业务逻辑的开发,而不必关注底层的网络通信细节。同时,Service Mesh还提供了强大的安全性、监控和追踪能力,可以帮助运维人员更好地监控和管理服务的运行状态。总之,Service Mesh的出现为服务通信带来了一场革命,极大地提升了应用程序的可靠性和可维护性。
Service Mesh的主要功能
Service Mesh的主要功能包括:
- 服务发现和负载均衡:Service Mesh可以自动发现和管理所有服务实例,并通过负载均衡策略将流量分配到不同的实例上,以提高可用性和性能。
- 智能路由和流量控制:Service Mesh可以基于各种条件和规则对流量进行智能路由和控制,例如根据请求头、路径、用户等进行流量划分和限制,从而实现A/B测试、灰度发布等功能。
- 链路追踪和监控:Service Mesh可以对整个服务调用链进行跟踪和监控,记录每个请求的详细信息,包括请求时间、耗时、错误等,以帮助开发人员快速定位和解决问题。
- 安全认证和授权:Service Mesh可以提供强大的安全机制,包括身份认证、访问控制、数据加密等,以保护服务之间的通信安全,并防止未经授权的访问。
- 故障恢复和容错:Service Mesh可以自动监测和检测服务实例的健康状态,并在出现故障时自动进行故障恢复和容错处理,以提高服务的可靠性和稳定性。
- 可观察性和调试能力:Service Mesh可以提供丰富的监控指标和日志,帮助开发人员深入了解系统的运行情况,并通过可视化界面和工具进行调试和排查问题。
ServiceMesh和Kubernetes关系
Kubernetes是一个开源的容器编排和调度平台,它的主要目标是解决容器化应用的管理和调度问题。Kubernetes提供了各种功能,例如自动化部署、弹性扩缩容、服务发现和负载均衡等,以帮助开发人员更好地管理和运行容器化应用。Kubernetes通过使用调度器来管理应用的生命周期,确保应用始终处于预期的状态。
Service Mesh则是专注于解决微服务架构中的服务间网络通信问题的一种架构模式。它通过在应用程序旁边引入代理(通常称为边车)来管理服务之间的通信。代理负责处理请求的转发、负载均衡、智能路由、安全认证等功能。Service Mesh为微服务架构提供了更强大的功能和管理能力,使得开发人员可以更好地管理和监控服务之间的通信,同时也提供了更高的可观察性、安全性和可靠性。
在实践中,Kubernetes和Service Mesh可以结合使用,相互增强。Kubernetes提供了强大的容器编排和调度功能,使得微服务应用可以在容器环境中高效运行。而Service Mesh作为对Kubernetes网络功能的扩展和延伸,可以进一步提供服务间的流量管理、安全认证、故障恢复等功能,以满足微服务架构中更复杂的需求。
Service Mesh 产品
Istio:Istio是由Google、IBM联合开源的Service Mesh平台,它提供了丰富的功能,包括流量管理、安全认证、故障注入等。它与Kubernetes紧密集成,可以通过Kubernetes的资源对象进行配置和管理。也是我们本系列的主角。
Envoy:Envoy是一个高性能的代理服务器,可以作为Service Mesh的核心组件。它被广泛应用于多个Service Mesh平台中,包括Istio
Linkerd:Linkerd是另一个流行的Service Mesh平台,它专注于简化和加速服务间通信。它提供了可观察性、故障注入、负载均衡等功能,并与Kubernetes无缝集成。但是没有强大的背景背书,比如:Google、IBM
在前面的讲解中,我们已经提及了微服务的一些弊端,并介绍了Istio这样的解决方案。那么,对于我们开发人员来说,Istio究竟会带来哪些变革呢?今天我们就来简要探讨一下!
Kubernetes简单介绍
Kubernetes,俗称K8s,仅仅是因为L与s之间有8个字母所以叫的K8s,是一种用于管理和编排Docker集群的工具。它被广泛使用且备受推崇,因此在讲解Istio技术时,我们选择与Kubernetes进行集成开发。接下来,我们将重点关注如何在集成了Istio的项目中进行代码编写和重构。尽管Kubernetes技术对于开发者来说关系不是特别密切,但我们会在以后的时间里专门设立一个Kubernetes系列专栏,来详细介绍该技术。
bookinfo 架构介绍
bookinfo是Istio提供的学习样例,通过使用bookinfo,您可以更深入地理解Istio提供的路由、遥测等功能。下图展示了bookinfo在未集成Istio之前的物理架构:
bookinfo是一个在线书店应用,由四个微服务组成,分别是Product page、Reviews、Details和Ratings。为了展示Istio的无侵入性,这四个微服务分别使用Python、Java、Ruby和Node进行开发。下面对每个服务进行详细说明:
Product page:这是一个聚合服务,它通过聚合Reviews和Details的内容来展示产品页面。
Details:这是图书详情服务,提供了书籍的详细信息。
Reviews:这是图书评价服务,它有多个版本供选择。Reviews还是一个聚合服务,它将Ratings的评分信息与评价内容进行聚合。
Ratings:这是图书预订排名服务,提供了图书的评分信息。
下图展示了bookinfo在嵌入了Istio后的物理架构:
部署 bookinfo 应用
为了简化bookinfo应用的部署过程,可以使用批注入的方式来自动注入sidecar。这样可以避免每次手动注入sidecar的繁琐步骤。
配置 istio 自动注入
批注入是一种将sidecar自动注入到Kubernetes部署中的方法。通过批注入,可以在应用部署的同时自动添加sidecar容器,而无需手动进行注入操作。
在部署bookinfo应用之前,需要确保已经安装和配置了Istio。然后,可以按照以下步骤进行批注入部署bookinfo应用:
kubectl create ns test
kubectl label ns test istio-injection=enabled
kubectl get ns test --show-labels
部署 bookinfo 应用
kubectl apply -f samples/bookinfo/platform/kube/bookinfo.yaml -n test
这里就不再赘述了,你可以在官方网站上详细了解:https://istio.io/latest/zh/docs/examples/bookinfo/
当你部署完bookinfo 之后,打开浏览器并访问网址,多次刷新页面,你会发现 bookinfo 应用使用了多个不同版本的 reviews,如下所示:
Review-v1
Review-v2
Review-v3
bookinfo 服务调用示意图
代码开发
这里我们将不再配置关于Istio的虚拟服务和路由规则。这些都可以通过编写一个YAML格式的文件,并在Kubernetes中执行一条命令来完成。你可以参考官方提供的示例来进行配置。配置完成后,Istio将能够捕获所有当前服务发送的请求,并进行解析路由,从而实现灰度发布、A/B测试、故障注入等逻辑。但是这不是我们文章的重点,我们只需要关注代码的编写即可。剩下的运维工作将由相关人员负责
在开发之前,让我们先来看一下官方GitHub上的bookinfo项目是如何进行调用的。官方仓库的地址是:https://github.com/istio/istio/blob/master/samples/bookinfo/src/reviews/reviews-application/src/main/java/application/rest/LibertyRestEndpoint.java
我已经将地址定位到了我们关注的Java文件。如果你是Python开发或者使用Node.js,你可以自行切换到相应的目录。无论使用哪种语言,基本的逻辑都是相同的。
private final static Boolean ratings_enabled = Boolean.valueOf(System.getenv("ENABLE_RATINGS"));
private final static String star_color = System.getenv("STAR_COLOR") == null ? "black" : System.getenv("STAR_COLOR");
private final static String services_domain = System.getenv("SERVICES_DOMAIN") == null ? "" : ("." + System.getenv("SERVICES_DOMAIN"));
private final static String ratings_hostname = System.getenv("RATINGS_HOSTNAME") == null ? "ratings" : System.getenv("RATINGS_HOSTNAME");
private final static String ratings_port = System.getenv("RATINGS_SERVICE_PORT") == null ? "9080" : System.getenv("RATINGS_SERVICE_PORT");
private final static String ratings_service = String.format("http://%s%s:%s/ratings", ratings_hostname, services_domain, ratings_port);
private final static String pod_hostname = System.getenv("HOSTNAME");
private final static String clustername = System.getenv("CLUSTER_NAME");
//·······此处省略没必要的代码
//调用逻辑
private JsonObject getRatings(String productId, HttpHeaders requestHeaders) {
ClientBuilder cb = ClientBuilder.newBuilder();
Integer timeout = star_color.equals("black") ? 10000 : 2500;
cb.property("com.ibm.ws.jaxrs.client.connection.timeout", timeout);
cb.property("com.ibm.ws.jaxrs.client.receive.timeout", timeout);
Client client = cb.build();
WebTarget ratingsTarget = client.target(ratings_service + "/" + productId);
Invocation.Builder builder = ratingsTarget.request(MediaType.APPLICATION_JSON);
//·······此处省略没必要的代码
通过以上的代码,我们可以发现,使用Istio可以大大简化微服务架构中的代码逻辑。通过使用服务名进行HTTP调用,Istio会自动处理请求的路由、负载均衡和流量控制等功能,从而减少了对其他组件的依赖,使代码更加清爽。在实际开发中,可以选择使用OpenFeign或gRPC等技术来实现微服务之间的通信。
OpenFeign是一个基于注解的声明式Web Service客户端,它可以简化HTTP请求的编写和调用。使用OpenFeign,你可以定义一个接口,并使用注解来描述接口的请求路径、请求方法和参数等信息。OpenFeign会根据这些注解自动生成HTTP请求的代码,使开发者可以更加方便地调用其他微服务。
gRPC是一个高性能、开源的远程过程调用(RPC)框架,它使用Protocol Buffers作为接口定义语言(IDL)来定义服务接口和消息格式。通过gRPC,你可以定义一个接口,并使用Protocol Buffers来描述接口的请求和响应消息。gRPC会自动生成客户端和服务端的代码,使开发者可以直接调用远程服务而无需关心底层的网络通信细节。
无论是选择OpenFeign还是gRPC,都可以根据具体的需求和技术栈来决定。它们都提供了方便的工具和框架来简化微服务之间的通信,使开发者可以更加专注于业务逻辑的实现。
总结
总的来说,Istio为开发人员带来了许多变革。首先,它提供了批注入的方式来自动注入sidecar,简化了应用部署的过程。其次,通过Istio,开发人员可以轻松地进行灰度发布、A/B测试和故障注入等操作,而无需手动配置路由规则。此外,Istio还提供了服务发现、负载均衡和流量控制等功能,减少了对其他组件的依赖,使代码更加清爽。在代码开发方面,可以选择使用OpenFeign或gRPC等技术来简化微服务之间的通信。总之,Istio的引入为微服务架构的开发人员提供了更便捷和高效的开发方式。