探索 Kubernetes 网络的基础、服务、端点和负载均衡

本文涉及的产品
网络型负载均衡 NLB,每月750个小时 15LCU
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
传统型负载均衡 CLB,每月750个小时 15LCU
简介: Kubernetes 是一个开源容器编排系统,负责自动化部署、扩展和运行容器化应用程序。网络是 Kubernetes 架构中的一个重要组成部分,它为容器之间的通信提供基础服务。在 Kubernetes 中每个 Pod 都有一个独立的 IP 地址,Pod 之间可以通过这个 IP 地址进行通信。同时,Kubernetes 还提供了一些机制来管理 Pod 的网络:如 Service、Endpoint、Ingress、NetworkPolicy 等。

一、引言

1.1 背景介绍

Kubernetes 是一个开源容器编排系统,负责自动化部署、扩展和运行容器化应用程序。网络是 Kubernetes 架构中的一个重要组成部分,它为容器之间的通信提供基础服务。

在 Kubernetes 中,每个 Pod 都有一个独立的 IP 地址,Pod 之间可以通过这个 IP 地址进行通信。同时,Kubernetes 还提供了一些机制来管理 Pod 的网络:如 Service、Endpoint、Ingress、NetworkPolicy 等。

1.2 目的和意义

Kubernetes 网络的目的是为容器化应用程序提供高效、可靠、安全的通信服务,让多个容器之间可以相互通信。Kubernetes 的通信机制使集群中的所有容器可以相互发现和交换信息,同时还可以进行负载均衡、服务发现和网络策略等操作。

Kubernetes 网络的意义在于降低了容器化应用程序的复杂度,提高了容器间通信的效率和可靠性,同时也增加了容器集群的可扩展性和灵活性。Kubernetes 的网络设计具有高度的灵活性,可以适应各种不同类型的应用程序和云环境。以下是 Kubernetes 网络的一些基础知识和实现机制。

二、Kubernetes 网络基础

本文将深入介绍 Kubernetes 网络的要素、功能和模型。

1 Kubernetes 网络要素

Kubernetes 网络的要素包括:

1.1 Pod

Pod 是 Kubernetes 中的最小运行单位,它可以包含一个或多个容器。Pod 通常都运行在一个节点中,并且通过一个共享的网络命名空间进行通信。每个 Pod 都有一个唯一的 IP 地址,它可以用于 K8S 集群内容器的通信。在 Kubernetes 中,不同的 Pod 可以通过网络进行连接,以便容器之间可以相互访问和交互。

apiVersion: v1
kind: Pod
metadata:
  name: pod1
spec:
  containers:
  - name: nginx
    image: nginx

1.2 Service

Service 是 Kubernetes 中用于暴露 Pod 网络服务的一种机制,它可以将多个 Pod 绑定在一个虚拟 IP 上,并提供负载均衡的功能。在 Kubernetes 中,Service 可以将同一服务的多个 Pod 绑定在同一个 DNS 名称下,让应用程序通过一个服务名称来访问应用程序,从而达到负载均衡和服务发现的目的。

apiVersion: v1
kind: Service
metadata:
  name: nginx-service   
spec:
  selector:
    app: nginx
  ports:
  - name: http
    port: 80
    targetPort: 80
  type: ClusterIP

1.3 Network Plugin

Kubernetes 的网络插件(Network Plugin)是 Kubernetes 网络的基础组件,它负责为 Kubernetes 集群提供网络编排和路由能力。K8S 支持多种网络插件,例如 Flannel、Calico、Weave 等等,每个插件都有自己的特点和适用场景。

1.4 CNI

CNI 是容器网络接口的简称,它是 Kubernetes 中的网络插件标准化接口,负责定义容器如何连接网络和路由网络流量。Kubernetes 中支持多种 CNI 插件,包括 Calico、Flannel、Cilium、Weave 等等。

2 Kubernetes 网络功能

Kubernetes 网络的主要功能包括:

2.1 服务发现和负载均衡

服务发现和负载均衡是 Kubernetes 网络的核心功能,它可以让容器通过服务名来访问其他容器。Kubernetes 中的 Service 机制可以将多个容器绑定到相同的服务名称下,并为服务名称分配一个唯一的 IP 地址和端口。当 Pod 内容器向服务名称发送请求时,Service 会实现负载均衡,将请求分发到后端多个 Pod 中的一个。这样,只需要一个服务名称,即可访问 K8S 集群内的多个容器。

2.2 安全和网络策略

Kubernetes 网络还提供了安全机制和网络策略功能,可以确保容器之间的通信是安全的。通过 NetworkPolicy 资源,用户可以定义资源间的网络访问策略,以确保只有授权的容器可以互相访问。而且,Kubernetes 网络还支持 TLS 加密和网络连接认证等安全机制,以确保容器间通信的机密性和完整性。

2.3 云上物理网络的协同管理

Kubernetes 网络可以与云上物理网络协同管理,确保容器的网络连接符合物理网络的规划和安全要求。在云环境下,Kubernetes 网络可与云网络安全组、路由器、负载均衡器等协同管理,使容器的网络配置和管理更为规范和安全。

3 Kubernetes 网络模型

Kubernetes 网络是一个分层的模型,它包括了多个网络层级,每一层级都有不同的功能和特点,可以为 Kubernetes 容器提供不同的网络服务。

3.1 容器网络

容器网络是 Kubernetes 网络的最基本层级,也是 Kubernetes 模型中最小的网络单元。每个容器都有自己的 IP 地址和网络命名空间,这些容器可以在同一机器上或不同的机器上运行。通常情况下,每个容器都连接到节点的一个租赁网卡,这个租赁网卡会提供容器的网络地址和路由。

3.2 Pod 网络

Pod 网络是 Kubernetes 网络的第二层级,它是运行多个容器的基本单元。Pod 网络可以共享一个 IP 地址,并且可以应用网络策略来管理容器之间的通信。在 Kubernetes 中,Pod 网络通常都是由一个网络插件集成器来提供的。

3.3 Service 网络

Service 网络是 Kubernetes 网络的第三层级,它是一组 Pod 的虚拟 IP 地址,让外部能够访问到 Pod。通过 Kubernetes 中的 Service 资源,用户可以将多个 Pod 绑定到同一服务下,并提供负载均衡,使得集群中的容器能够无缝地互相交流和访问。

3.4 Overlay 网络

Overlay 网络是 Kubernetes 网络的第四层级,它是通过软件实现虚拟网络,让在不同物理网络中的容器能够相互通信。在 Kubernetes 集群中,Overlay 网络通常是由网络插件提供的,如 Flannel、Calico、Weave 等等。

三、Kubernetes 服务

本文将为您详细介绍 Kubernetes 中的服务(Service)以及服务的实现方式、选择器和类型。

1 服务简介

服务是 Kubernetes 中用于暴露 Pod 的网络服务的一种机制。通过定义一个服务资源,用户可以将多个 Pod 绑定在一个虚拟 IP 上,并提供负载均衡的功能。在 Kubernetes 中,服务可以将同一服务的多个 Pod 绑定在同一 DNS 名称下,让应用程序通过一个服务名称来访问应用程序,从而达到负载均衡和服务发现的目的。

2 服务实现方式

Kubernetes 中的服务实现主要有以下两种方式:

2.1 ClusterIP

ClusterIP 是 Kubernetes 中最常用的服务类型,它为一组 Pod 服务创建一个虚拟 IP,只能从 Kubernetes 集群内部访问。这种服务类型通常用于前端与后端 Pod 之间的通信。服务的选择器 Selector 会选择需要绑定到该服务下的 Pod(可以是多个),并将它们绑定到虚拟 IP 上。当其他 Pod 或者 Service 通过服务名来访问该服务时,Kubernetes 系统将通过负载平衡算法将请求转发到被绑定于该虚拟 IP 的 Pod 上。

以下是一个支持 HTTP 和 HTTPS 两种协议的 Service 示例:

apiVersion: v1
kind: Service
metadata:
  name: my-service
  labels:
    app: web
spec:
  selector:
    app: web
  ports:
    - name: http
      port: 80
      targetPort: 8001
    - name: https
      port: 443
      targetPort: 8002
  type: ClusterIP

2.2 NodePort

NodePort 将一个服务暴露在每个节点的 IP 地址和端口上,这种服务类型通常用于外部流量访问 Kubernetes 集群内部的服务。当创建这种服务类型的时候,Kubernetes 系统会为服务创建一个唯一的端口(通常为大于 30000 的整数),这个端口将被映射到每个节点上的同一个端口。当流量进入任何一个节点的这个端口时,系统会使用内部 ClusterIP 来将请求转发到被绑定于该服务下的 Pod 上。

以下是一个使用 NodePort 实现的 Service 示例:

apiVersion: v1
kind: Service
metadata:
  name: my-service
  labels:
    app: web
spec:
  selector:
    app: web
  ports:
    - name: http
      port: 80
      targetPort: 8001
    - name: https
      port: 443
      targetPort: 8002
  type: NodePort
  nodePort: 32123

3 服务选择器

服务选择器(Selector)是一种用于将 Pod 与 Service 关联起来的机制,它通过标签(Labels)来选择一组 Pod 并将它们绑定到一个服务上。当创建服务的时候,用户需要定义一个或多个标签,然后使用这些标签在选择器中定义 Pod 的筛选条件。当后续创建的 Pod 包含了定义的标签时,Kubernetes 会自动将它们绑定到前面定义的服务上。

对于以下的 Service 定义:

apiVersion: v1
kind: Service
metadata:
  name: my-service
  labels:
    app: web
spec:
  selector:
    app: web
  ...

Pod 可以通过以下的标签与该 Service 关联:

apiVersion: v1
kind: Pod
metadata:
  name: my-pod
  labels:
    app: web
spec:
  ...

4 服务类型

Kubernetes 中支持以下三种服务类型:

4.1 ClusterIP

ClusterIP 只在 Kubernetes 集群内部可用,它可以将一组 Pod 绑定在同一个虚拟 IP 上,并对 Pod 提供负载均衡功能。这种服务类型通常用于内部服务的访问。

4.2 NodePort

NodePort 允许在每个节点上暴露一个 Pod,以便外部流量可以访问到集群中的 Pod。外部流量将通过一个端口映射到集群中的服务,Kubernetes 系统将使用负载平衡算法将流量转发到绑定到该服务下的 Pod 上。

4.3 LoadBalancer

LoadBalancer 可以将集群中的服务映射到外部的负载均衡器上。使用这种服务类型时,Kubernetes 系统会创建一个外部负载均衡器,并将其绑定到 Pod 的虚拟 IP 上。外部请求将先通过负载均衡器,然后转发到 Service 下的 Pod。使用 LoadBalancer 服务类型需要使用云厂商的负载均衡器服务,需要确保在 Kubernetes 集群中已安装正确的云提供商的插件。

四、Kubernetes 端点

1 端点简介

在 Kubernetes 中,Pod 是能够接收请求的最小单元。通过端点(Endpoint),集群内的其他对象可以发现应用的 IP 和端口信息,以达到访问应用的目的。此外,端点还可以实现负载均衡,确保应用的访问量得到适当分配。

2 端点对象

Kubernetes 中的端点对象(Endpoints)是一个与 Service 相关联的对象,它存储了 Service 中所选的所有 Pod 的 IP 地址和端口信息。通过这些信息,Kubernetes 可以动态地更新 Service 对象的访问路径,实现负载均衡。

以下是一个包含 IP 和端口信息的 Endpoints 对象的示例 YAML 文件:

apiVersion: v1
kind: Endpoints
metadata:
  name: my-service
subsets:
  - addresses:
      - ip: 10.0.0.1
      - ip: 10.0.0.2
    ports:
      - port: 80
        name: http
      - port: 443
        name: https

在这个示例中,Endpoints 对象名为“my-service”,包含两个 IP 地址(10.0.0.1、10.0.0.2)和两个端口(80 和 443)。这些信息被用于更新 Service 中的访问路径。

3 端点控制器

Kubernetes 中的端点控制器(Endpoint Controller)是一个自动化的控制器,负责将 Kubernetes 中的 Service、Pod 和 Endpoints 对象之间建立关联。它会监控 Service 和 Pod 对象的变化,并且自动创建、更新或删除相应的 Endpoints 对象,以确保 Service 能够正确地路由到所有相关的 Pod。

以下是一个端点控制器示意图:

                                           +-------+
Service +-------------------+              |       |
                            |              |  Pod  |
       +-------+   Watch   |              |       |
       |       |   Service |              +-------+
       |       | <---------+
       |       |
+------+-------+------+
| Endpoint Controller |
+------+-------+------+
       |       |
       |       |   Watch
       |       |   Pod
       +-------+

在这个示意图中,Endpoint Controller 监听 Service 和 Pod 对象的变化,根据需要创建、更新或删除 Endpoints 对象,使 Service 能够正确地路由到 Pod。

Kubernetes 中的所有端点操作都是由 Endpoint Controller 完成的,因此在 Kubernetes 集群中实现服务发现和负载均衡的关键就是 Endpoint Controller。

五、Kubernetes 负载均衡

1 负载均衡简介

负载均衡是一种高效地将工作负载分配到多个计算资源中的方法,以确保服务能够稳定地运行。在 Kubernetes 中,负载均衡是非常重要的,因为它可以确保 Pod 能够得到合理分配,从而提高整个集群的性能和可靠性。

2 Kubernetes 负载均衡方式

Kubernetes 中有三种常用的负载均衡方式,它们分别是 NodePort、ClusterIP 和 LoadBalancer。

2.1 NodePort

NodePort 允许将 Service 的端口绑定到每个节点的 IP 地址上,这样可以通过节点的 IP 地址和绑定的端口直接访问 Service。

apiVersion: v1
kind: Service
metadata:
  name: my-service
spec:
  selector:
    app: MyApp
  type: NodePort
  ports:
  - name: http
    port: 80
    targetPort: 8080

这个配置文件定义了一个名为“my-service”的 Service,使用 NodePort 类型,绑定到 80 端口上。它会将请求转发到后端 Pod 的 8080 端口。

2.2 ClusterIP

ClusterIP 允许 Service 只能在集群内部访问,通过一个虚拟的 IP 地址进行访问。将请求转发给指定 Pod 的端口。

apiVersion: v1
kind: Service
metadata:
  name: my-service
spec:
  selector:
    app: MyApp
  type: ClusterIP
  ports:
  - name: http
    port: 80
    targetPort: 8080

这个配置文件定义了一个名为“my-service”的 Service,使用 ClusterIP 类型,绑定到 80 端口上。它会将请求转发到后端 Pod 的 8080 端口。

2.3 LoadBalancer

LoadBalancer 允许外部访问 Service,提供一种简单的方式来暴露应用程序和服务。使用云提供商的负载均衡器,或者使用 Kubernetes 的内置 L4 负载均衡器 - IPVS。

apiVersion: v1
kind: Service
metadata:
  name: my-service
spec:
  selector:
    app: MyApp
  type: LoadBalancer
  ports:
  - name: http
    port: 80
    targetPort: 8080

这个配置文件定义了一个名为“my-service”的 Service,使用 LoadBalancer 类型,绑定到 80 端口上。它会将请求转发到后端 Pod 的 8080 端口。

3 Kubernetes 中的负载均衡器

Kubernetes 中存在两种类型的负载均衡器,分别是 L4 负载均衡器和 L7 负载均衡器。

3.1 L4 负载均衡器

L4 负载均衡器是一种能够根据网络层(IP 地址和端口号)进行负载均衡的负载均衡器。Kubernetes 中的 IPVS 就是一种 L4 负载均衡器,它可以在 Linux 内核中构建一个虚拟服务器网络。

3.2 L7 负载均衡器

L7 负载均衡器是一种能够根据应用层协议(例如 HTTP、HTTPS 和 SMTP)进行负载均衡的负载均衡器。Kubernetes 中流行的 L7 负载均衡器有 Kubernetes Ingress 和 Istio。它们可以根据 HTTP 请求头中的信息进行路由决策。

六、案例分析

1 基于服务的负载均衡

基于服务的负载均衡是 Kubernetes 中的一种负载均衡方式,它通过 Service 来实现。Service 可以将多个 Pod 组合成一个逻辑单元,从而提供一个统一的入口,让客户端可以方便地访问到容器化应用。

负载均衡的实现原理是将流量分配到不同的 Pod 上,从而避免单个 Pod 成为性能瓶颈。Kubernetes 中支持三种 Service 模式,分别是 ClusterIP, NodePort 和 LoadBalancer。如果想要实现负载均衡,可以使用其中任意一种模式,具体选择哪种模式要根据应用场景决定。

以下是一个 NodePort 类型的 Service 示例:

apiVersion: v1
kind: Service
metadata:
  name: my-service
spec:
  selector:
    app: MyApp
  type: NodePort
  ports:
    - port: 80
      targetPort: 8080
      nodePort: 30001

这个配置文件定义了一个名为“my-service”的 Service,使用 NodePort 类型,绑定到 80 端口上。它会将请求转发到后端 Pod 的 8080 端口,并将 NodePort 设置为 30001,以便外部访问。

2 服务发现与 DNS

Kubernetes 中的服务发现与 DNS 解析是 Kubernetes 中一个非常重要的功能。它允许在 Kubernetes 集群内部以及从集群外部访问服务时,将服务名称解析为服务 IP 地址。

Kubernetes 使用 a kube-dns 服务来提供 DNS 解析服务。当一个容器运行时,kubelet 首先向 kube-apiserver 注册它的 IP 地址和端口,然后向 kube-dns 注册服务信息。

以下是一个使用 Service 的应用程序示例:

apiVersion: v1
kind: Service
metadata:
  name: my-service
spec:
  selector:
    app: MyApp
  clusterIP: None
  ports:
    - name: my-port
      port: 80
      targetPort: 9376

这个配置文件定义了一个名为“my-service”的 Service,使用 None 类型,绑定到 80 端口上,将请求转发到后端 Pod 的 9376 端口。

3 案例小结

Kubernetes 是一个非常灵活和强大的容器编排平台,可以帮助开发人员和运维人员简化应用程序部署和管理的工作。在此过程中,负载均衡和服务发现是 Kubernetes 中非常关键的两个功能。使用 Kubernetes 提供的 Service 和 kube-dns 功能,可以实现高效的负载均衡和服务发现。

七、总结

1 Kubernetes 网络模型的优势

Kubernetes 网络模型是 Kubernetes 数据平面的基础,具有以下优势:

  • 透明性:网络模型对应用与基础架构之间的连接进行抽象,使得应用不需要关心底层网络的实现细节。
  • 灵活性:Kubernetes 网络模型支持众多插件和网络方案,并可轻松扩展,适用于不同的应用场景。
  • 可编程性:Kubernetes 网络模型提供完全的 API,可通过编程对网络进行管理和配置。

2 如何实现高效管理

要实现高效的 Kubernetes 管理,需要注意以下几点:

  • 充分了解 Kubernetes: 需要了解 Kubernetes 的架构、原理和组件等,从而更好地理解 Kubernetes 的管理和运维。
  • 强化安全和可靠性: 在 Kubernetes 的管理过程中需要注意安全性和可靠性,要尽可能减少人为错误和故障的风险。
  • 自动化: 要尽可能地使用自动化工具,例如使用 Kubernetes Operator,使用自动化工具能够提高管理效率并减少错误发生的概率。
  • 监控和调试: 对 Kubernetes 环境进行监控,及时检测和排错,使得 Kubernetes 的管理工作更加高效和可靠。

示例代码:自动化部署工具 Helm

Helm 是 Kubernetes 的一个应用程序包管理器,它可以自动化地处理 Kubernetes 应用程序的安装和升级。它的主要作用是通过预定义的模板和图表以简化交付工作。

以下是一个基本的 Helm Chart 格式化样例:

apiVersion: v2
name: myapp
description: A Helm chart for deploying My Application
version: 0.1.0
appVersion: 1.0

dependencies:
  - name: mariadb
    version: 0.1.0
    repository: https://charts.mariadb.com

  - name: frontend
    version: 0.1.0
    repository: https://charts.example.com

images:
  myapp: myapp:v1.0.0
  mariadb: mariadb:10.4

templates:
  - name: myapp-deployment.yaml
    data:
      replicas: 3
      image: myapp:v1.0.0
      imagePullPolicy: IfNotPresent
      port: 80
      env:
        - name: DB_HOST
          value: mariadb
        - name: DB_PASSWORD
          valueFrom:
            secretKeyRef:
              name: mariadb-password
              key: password
  - name: mariadb-secret.yaml
    data:
      user: myapp
      password: password123

这个 Chart 定义了一个名为 "myapp" 的应用程序,使用 MariaDB 和 frontend 的依赖,在 Kubernetes 中使用 3 个 Pod 运行。它使用了 Kubernetes 的 Deployment 和 Secret 对象。在应用程序 Pod 运行时,它将从 MariaDB Password Secret 中读取密码,并使用 MariaDB 作为数据库服务器。

需要注意的是,使用 Helm 部署应用时,需要注意安全性和可靠性,及时进行监控和调试。

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
14天前
|
人工智能 弹性计算 运维
ACK Edge与IDC:高效容器网络通信新突破
本文介绍如何基于ACK Edge以及高效的容器网络插件管理IDC进行容器化。
|
3天前
|
Kubernetes 网络协议 应用服务中间件
Kubernetes Ingress:灵活的集群外部网络访问的利器
《Kubernetes Ingress:集群外部访问的利器-打造灵活的集群网络》介绍了如何通过Ingress实现Kubernetes集群的外部访问。前提条件是已拥有Kubernetes集群并安装了kubectl工具。文章详细讲解了Ingress的基本组成(Ingress Controller和资源对象),选择合适的版本,以及具体的安装步骤,如下载配置文件、部署Nginx Ingress Controller等。此外,还提供了常见问题的解决方案,例如镜像下载失败的应对措施。最后,通过部署示例应用展示了Ingress的实际使用方法。
18 2
|
24天前
|
算法 安全 网络安全
网络安全服务
机密主要利用密码学技术加密文件实现,完整主要利用验证码/Hash技术,可用**主要灾备来保障。 网络环境下的身份鉴别,当然还是依托于密码学,一种可以使用口令技术,另一种则是依托物理形式的鉴别,如身份卡等。其实更为安全的是实施多因子的身份认证,不只使用一种方式。数字签名可以用来保证信息的完整性,比如RSA就可以用于数字签名: 若A向B发送信息m则先用自己的保密密钥(私钥)对m加密,然后用B的公钥第二次加密,发送个B后,B先用自己的私钥解密一次,再用A的公钥解密即可。 Kerberos使用对称密码算法来实现通过可信第三方密钥分发中心的认证服务,已经成为工业界的事实标准。
33 3
|
1月前
|
安全 Linux 网络安全
nmap 是一款强大的开源网络扫描工具,能检测目标的开放端口、服务类型和操作系统等信息
nmap 是一款强大的开源网络扫描工具,能检测目标的开放端口、服务类型和操作系统等信息。本文分三部分介绍 nmap:基本原理、使用方法及技巧、实际应用及案例分析。通过学习 nmap,您可以更好地了解网络拓扑和安全状况,提升网络安全管理和渗透测试能力。
145 5
|
1月前
|
云安全 人工智能 安全
阿里云稳居公共云网络安全即服务市占率第一
IDC发布《中国公有云网络安全即服务市场份额,2023:规模稳步增长,技术创新引领市场格局》报告,阿里云以27.0%的市场份额蝉联榜首。
|
1月前
|
存储 Kubernetes 网络协议
k8s的无头服务
Headless Service 是一种特殊的 Kubernetes 服务,其 `spec:clusterIP` 设置为 `None`,不会分配 ClusterIP,通过 DNS 解析提供服务发现。与普通服务不同,Headless Service 不提供负载均衡功能,每个 Pod 都有唯一的 DNS 记录,直接映射到其 IP 地址,适用于有状态应用的场景,如与 StatefulSet 一起部署数据库。示例中通过创建 Nginx 的 StatefulSet 和 Headless Service,展示了如何直接访问单个 Pod 并进行内容修改。
53 3
|
1月前
|
运维 安全 5G
|
2月前
|
Docker 容器
docker swarm启动服务并连接到网络
【10月更文挑战第16天】
45 5
|
1月前
|
存储 Kubernetes Devops
Kubernetes集群管理和服务部署实战
Kubernetes集群管理和服务部署实战
56 0

热门文章

最新文章