k8s的部署

本文涉及的产品
容器服务 Serverless 版 ACK Serverless,317元额度 多规格
容器服务 Serverless 版 ACK Serverless,952元额度 多规格
日志服务 SLS,月写入数据量 50GB 1个月
简介: k8s集群解决的问题 Docker之间跨节点的通讯 动态管理集群负载,使集群工作在期望的状态 集群之间资源的调度 集群的运行方式 k8s的节点类型 master节点负责整个集群的控制和管理 node节点是负载节点,运行pod。

k8s集群解决的问题

Docker之间跨节点的通讯

动态管理集群负载,使集群工作在 期望的状态

集群之间资源的调度

集群的运行方式

k8s的节点类型

master节点负责整个集群的控制和管理

node节点是负载节点,运行pod。

master节点所用到的组件

kube-apiserver提供整个集群资源的操作入口(增删改查),也是集群的控制入口,提供http rest接口。

etcd保存整个集群的状态,也即是资源信息。KEY/VALUE模式的存储系统

kube-schedule负载pod(资源)的调度,根据设置策略调度pod到指定的node上运行。

kube-controller-manager维护集群,所有资源的自动化控制中心。当整个集群的状态与期望不符合的时候,组件会努力让集群恢复期望状态,比如:当一个pod死亡,组件新建一个pod恢复对应replicas set期望的状态。

node节点所用到的组件

kubelet负责pod的生命周期管理,同时与master密切协作,实现集群管理的基本功能

kube-proxy实现service的内部服务发现与负载均衡机制的重要组件,主要通过设置iptables规则实现

docker engin负责docker的生命周期管理

命名空间

k8s的namespace是在将系统内部的对象“分配”到不同的空间下,形成逻辑上的分组,便于不同的分组在共享使用整个集群的资源同时还能被分别管理。

POD RC Service Deployment等资源都会运行在特定的namespace中,默认的namerspace是default。

resource quotas

空白

lable

通过lable进行弱关联,灵活的分类或者选择不同服务或者业务,可以采用松耦合方式进行服务部署。label是一对key/value(想到etcd也是一对KEY/VALUE模式的存储系统

),对k8s没有什么意义,但是对于用户意义很大

replication controller(RC)

RC是K8S另一种核心概念,应用托管到K8s后,他会确保任何时间K8S都有指定数量的Pod

Deployment

deployment同样是为了确保pod的数量和健康,90%与RC一样。

service

kubernetes中service是一种抽象的概念,它定义了一个pod的逻辑集合以及访问他们的策略,service同pod的关联是居于label完成。service的目标是提供一种桥梁,它会为访问者提供一个固定的ip,用于在访问时重定向到相应的后端,使得非K8s原生应用程序,在无需为kubemces编写特定代码的前提下,轻松访问。

volume

容器内数据随着容器的生命周期而存在,如果需要持久化的保存数据,则需要挂载数据卷

emptyDir

hostPath(local)

NFS

glusterFS

cephFS

网络通信场景

容器到容器之间的直接通信

POD到POD之间的通信(同一节点/不同节点)

POD到service之间的通信

集群外部与内部组件之间的通信

安装

安装准备

•操作系统:CentOS7.3

[root@centos7-base-ok]# cat /etc/redhat-release

CentOS Linux release 7.3.1611 (Core)

•安装机器:k8s-1为master节点,k8s-2、k8s-3为slave节点

[root@centos7-base-ok]# cat /etc/hosts

127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4

::1 localhost localhost.localdomain localhost6 localhost6.localdomain6

k8s-1 192.168.80.28

k8s-2 192.168.80.35

k8s-3 192.168.80.14

安装步骤

安装docker 1.12(所有节点)

注意:现在docker已经更新到CE版本,但是kubernetes官方文档说在1.12上测试通过,最近版本的兼容性未测试,为了避免后面出现大坑,我们还是乖乖安装1.12版本的docker。

1.新建docker.repo文件,将文件移动到/etc/yum.repos.d/目录下

[root@centos7-base-ok]# cat /etc/yum.repos.d/docker.repo

[dockerrepo]

name=Docker Repository

baseurl=https://yum.dockerproject.org/repo/main/centos/7/

enabled=1

gpgcheck=1

gpgkey=https://yum.dockerproject.org/gpg

2.运行yum命令,找到需要安装的docker版本

10:21 [root@centos7-base-ok]# yum list|grep docker | sort -r

python2-avocado-plugins-runner-docker.noarch

python-dockerpty.noarch 0.4.1-6.el7 epel

python-dockerfile-parse.noarch 0.0.5-1.el7 epel

python-docker-scripts.noarch 0.4.4-1.el7 epel

python-docker-pycreds.noarch 1.10.6-1.el7 extras

python-docker-py.noarch 1.10.6-1.el7 extras

kdocker.x86_64 4.9-1.el7 epel

golang-github-fsouza-go-dockerclient-devel.x86_64

docker.x86_64 2:1.12.6-32.git88a4867.el7.centos

docker-v1.10-migrator.x86_64 2:1.12.6-32.git88a4867.el7.centos

docker-unit-test.x86_64 2:1.12.6-32.git88a4867.el7.centos

docker-registry.x86_64 0.9.1-7.el7 extras

docker-registry.noarch 0.6.8-8.el7 extras

docker-python.x86_64 1.4.0-115.el7 extras

docker-novolume-plugin.x86_64 2:1.12.6-32.git88a4867.el7.centos

docker-lvm-plugin.x86_64 2:1.12.6-32.git88a4867.el7.centos

docker-logrotate.x86_64 2:1.12.6-32.git88a4867.el7.centos

docker-latest.x86_64 1.13.1-13.gitb303bf6.el7.centos

docker-latest-v1.10-migrator.x86_64 1.13.1-13.gitb303bf6.el7.centos

docker-latest-logrotate.x86_64 1.13.1-13.gitb303bf6.el7.centos

docker-forward-journald.x86_64 1.10.3-44.el7.centos extras

docker-engine.x86_64 17.05.0.ce-1.el7.centos dockerrepo

docker-engine.x86_64 1.12.6-1.el7.centos @dockerrepo

docker-engine-selinux.noarch 17.05.0.ce-1.el7.centos @dockerrepo

docker-engine-debuginfo.x86_64 17.05.0.ce-1.el7.centos dockerrepo

docker-distribution.x86_64 2.6.1-1.el7 extras

docker-devel.x86_64 1.3.2-4.el7.centos extras

docker-compose.noarch 1.9.0-5.el7 epel

docker-common.x86_64 2:1.12.6-32.git88a4867.el7.centos

docker-client.x86_64 2:1.12.6-32.git88a4867.el7.centos

docker-client-latest.x86_64 1.13.1-13.gitb303bf6.el7.centos

cockpit-docker.x86_64 141-3.el7.centos extras

3.找到对应版本后,执行yum install -y 包名+版本号,安装1.12版本的docker-engine

[root@centos7-base-ok]# yum install -y docker-engine.x86_64-1.12.6-1.el7.centos

4.执行docker version命令,验证docker安装版本,执行docker run命令,验证docker是否安装成功

[root@centos7-base-ok]# docker version

Client:

Version: 1.12.6

API version: 1.24

Go version: go1.6.4

Git commit: 78d1802

Built: Tue Jan 10 20:20:01 2017

OS/Arch: linux/amd64

Server:

Version: 1.12.6

API version: 1.24

Go version: go1.6.4

Git commit: 78d1802

Built: Tue Jan 10 20:20:01 2017

OS/Arch: linux/amd64

5.设置开机启动,启动容器,docker安装完成

[root@centos7-base-ok]# systemctl enbale docker && systemctl start docker

安装kubectl、kubelet、kubeadm(根据需求在不同节点安装)

注意:此步骤是填坑的开始,因为官方文档的yum源在国内无法使用,安装完成后注意观察你的/var/log/message日志,会疯狂报错,别着急,跟着我一步一步来填坑。

1.新建kubernetes.repo文件,将文件移动到/etc/yum.repos.d/目录下(所有节点)

[root@centos7-base-ok]# cat /etc/yum.repos.d/kubernetes.repo

[kubernetes]

name=Kubernetes

baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64

enabled=1

gpgcheck=0

2.通过yum安装kubectl、kubelet、kubeadm(所有节点)

[root@centos7-base-ok]# cat /etc/yum.repos.d/kubernetes.repo

[kubernetes]

name=Kubernetes

baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64

enabled=1

gpgcheck=0

3.修改kubelet配置,启动kubelet(所有节点)

注意:时刻查看/var/log/message的日志输出,会看到kubelet一直启动失败。

编辑10-kubeadm.conf的文件,修改cgroup-driver配置:

[root@centos7-base-ok]# cat /etc/systemd/system/kubelet.service.d/10-kubeadm.conf

[Service]

Environment=”KUBELET_KUBECONFIG_ARGS=–kubeconfig=/etc/kubernetes/kubelet.conf –require-kubeconfig=true”

Environment=”KUBELET_SYSTEM_PODS_ARGS=–pod-manifest-path=/etc/kubernetes/manifests –allow-privileged=true”

Environment=”KUBELET_NETWORK_ARGS=–network-plugin=cni –cni-conf-dir=/etc/cni/net.d –cni-bin-dir=/opt/cni/bin”

Environment=”KUBELET_DNS_ARGS=–cluster-dns=10.96.0.10 –cluster-domain=cluster.local”

Environment=”KUBELET_AUTHZ_ARGS=–authorization-mode=Webhook –client-ca-file=/etc/kubernetes/pki/ca.crt”

Environment=”KUBELET_CADVISOR_ARGS=–cadvisor-port=0”

Environment=”KUBELET_CGROUP_ARGS=–cgroup-driver=cgroupfs”

ExecStart=

ExecStart=/usr/bin/kubelet KUBELETKUBECONFIGARGSKUBELETKUBECONFIGARGSKUBELET_SYSTEM_PODS_ARGS KUBELETNETWORKARGSKUBELETNETWORKARGSKUBELET_DNS_ARGS KUBELETAUTHZARGSKUBELETAUTHZARGSKUBELET_CADVISOR_ARGS KUBELETCGROUPARGSKUBELETCGROUPARGSKUBELET_EXTRA_ARGS

将“–cgroup-driver=systems”修改成为“–cgroup-driver=cgroupfs”,重新启动kubelet。

[root@centos7-base-ok]# systemctl restart kubelet

4.下载安装k8s依赖镜像

注意:此步骤非常关键,kubenetes初始化启动会依赖这些镜像,天朝的网络肯定是拉不下来google的镜像的,一般人过了上一关,这一关未必过的去,一定要提前把镜像下载到本地,kubeadm安装才会继续,下面我会列出来master节点和node依赖的镜像列表。(备注:考虑到随着kubernetes版本一直更新,镜像也可能会有变化,大家可以先执行 kubeadm init 生成配置文件,日志输出到 [apiclient] Created API client, waiting for the control plane to become ready 这一行就会卡住不动了,你可以直接执行 ctrl + c 中止命令执行,然后查看 ls -ltr /etc/kubernetes/manifests/

yaml文件列表,每个文件都会写着镜像的地址和版本)

在这里我提一个可以解决下载google镜像的方法,就是买一台可以下载的机器,安装代理软件,在需要下载google镜像的机器的docker设置 HTTP_PROXY 配置项,配置好自己的服务代理即可(也可以直接买可以访问到google的服务器安装).

master节点:

REPOSITORY TAG IMAGE ID CREATED SIZE

quay.io/calico/kube-policy-controller v0.7.0 fe3174230993 3 days ago 21.94 MB

kubernetesdashboarddev/kubernetes-dashboard-amd64 head e2cadb73b2df 5 days ago 136.5 MB

quay.io/calico/node v2.4.1 7643422fdf0f 6 days ago 277.4 MB

gcr.io/google_containers/kube-controller-manager-amd64 v1.7.3 d014f402b272 11 days ago 138 MB

gcr.io/google_containers/kube-apiserver-amd64 v1.7.3 a1cc3a3d8d0d 11 days ago 186.1 MB

gcr.io/google_containers/kube-scheduler-amd64 v1.7.3 51967bf607d3 11 days ago 77.2 MB

gcr.io/google_containers/kube-proxy-amd64 v1.7.3 54d2a8698e3c 11 days ago 114.7 MB

quay.io/calico/cni v1.10.0 88ca805c8ddd 13 days ago 70.25 MB

gcr.io/google_containers/kubernetes-dashboard-amd64 v1.6.3 691a82db1ecd 2 weeks ago 139 MB

quay.io/coreos/etcd v3.1.10 47bb9dd99916 4 weeks ago 34.56 MB

gcr.io/google_containers/k8s-dns-sidecar-amd64 1.14.4 38bac66034a6 7 weeks ago 41.81 MB

gcr.io/google_containers/k8s-dns-kube-dns-amd64 1.14.4 a8e00546bcf3 7 weeks ago 49.38 MB

gcr.io/google_containers/k8s-dns-dnsmasq-nanny-amd64 1.14.4 f7f45b9cb733 7 weeks ago 41.41 MB

gcr.io/google_containers/etcd-amd64 3.0.17 243830dae7dd 5 months ago 168.9 MB

gcr.io/google_containers/pause-amd64 3.0 99e59f495ffa 15 months ago 746.9 kB

node节点:

[root@centos7-base-ok]# docker images

REPOSITORY TAG IMAGE ID CREATED SIZE

kubernetesdashboarddev/kubernetes-dashboard-amd64 head e2cadb73b2df 5 days ago 137MB

quay.io/calico/node v2.4.1 7643422fdf0f 6 days ago 277MB

gcr.io/google_containers/kube-proxy-amd64 v1.7.3 54d2a8698e3c 11 days ago 115MB

quay.io/calico/cni v1.10.0 88ca805c8ddd 13 days ago 70.3MB

gcr.io/google_containers/kubernetes-dashboard-amd64 v1.6.3 691a82db1ecd 2 weeks ago 139MB

nginx latest b8efb18f159b 2 weeks ago 107MB

hello-world latest 1815c82652c0 2 months ago 1.84kB

gcr.io/google_containers/pause-amd64 3.0 99e59f495ffa 15 months ago 747kB

5.利用kubeadm初始化服务(master节点)

注意:如果你在上一步执行过 kubeadm init 命令,没有关系,此步执行只需要执行时加上 –skip-preflight-checks 这个配置项即可。

注意:执行 kubeadm init 的 –pod-network-cidr 参数和选择的网络组件有关系,详细可以看官方文档说明,本文选用的网络组件为 Calico

[root@centos7-base-ok]# kubeadm init –pod-network-cidr=192.168.0.0/16 –apiserver-advertise-address=0.0.0.0 –apiserver-cert-extra-sans=192.168.80.28,192.168.80.14,192.168.80.35,127.0.0.1,k8s-1,k8s-2,k8s-3,192.168.0.1 –skip-preflight-checks

参数说明:

参数名称

必选

参数说明

pod-network-cidr Yes For certain networking solutions the Kubernetes master can also play a role in allocating network ranges (CIDRs) to each node. This includes many cloud providers and flannel. You can specify a subnet range that will be broken down and handed out to each node with the –pod-network-cidr flag. This should be a minimum of a /16 so controller-manager is able to assign /24 subnets to each node in the cluster. If you are using flannel with this manifest you should use –pod-network-cidr=10.244.0.0/16. Most CNI based networking solutions do not require this flag.

apiserver-advertise-address Yes This is the address the API Server will advertise to other members of the cluster. This is also the address used to construct the suggested kubeadm join line at the end of the init process. If not set (or set to 0.0.0.0) then IP for the default interface will be used.

apiserver-cert-extra-sans Yes Additional hostnames or IP addresses that should be added to the Subject Alternate Name section for the certificate that the API Server will use. If you expose the API Server through a load balancer and public DNS you could specify this with.

其它的 kubeadm 参数设置请参照 官方文档

6.做一枚安静的美男子,等待安装成功,安装成功后你会看到日志如下(master节点):

注意:记录这段日志,后面添加node节点要用到。

[apiclient] All control plane components are healthy after 22.003243 seconds

[token] Using token: 33729e.977f7b5d0a9b5f3e

[apiconfig] Created RBAC rules

[addons] Applied essential addon: kube-proxy

[addons] Applied essential addon: kube-dns

Your Kubernetes master has initialized successfully!

To start using your cluster, you need to run (as a regular user):

mkdir -p HOME/.kubesudocp−i/etc/kubernetes/admin.confHOME/.kubesudocp−i/etc/kubernetes/admin.confHOME/.kube/config

sudo chown (id−u):(id−u):(id -g) $HOME/.kube/config

You should now deploy a pod network to the cluster.

Run “kubectl apply -f [podnetwork].yaml” with one of the options listed at:

http://kubernetes.io/docs/admin/addons/

You can now join any number of machines by running the following on each node

as root:

kubeadm join –token xxxxxxx 192.168.80.28:6443

7.创建kube的目录,添加kubectl配置(master节点)

mkdir -p HOME/.kubesudocp−i/etc/kubernetes/admin.confHOME/.kubesudocp−i/etc/kubernetes/admin.confHOME/.kube/config

sudo chown (id−u):(id−u):(id -g) $HOME/.kube/config

8.用 kubectl 添加网络组件Calico(master节点)

kubectl apply -f http://docs.projectcalico.org/v2.4/getting-started/kubernetes/installation/hosted/kubeadm/1.6/calico.yaml

注意:此处坑为该文件未必下载的到,建议还是提前下载到本地,然后执行 kubectl apply -f <本地路径>

9.确认安装是否成功(master节点)

9.1 打开你的/var/log/messages,查看是否有报错,理论上,执行完上一步过去5分钟,日志应该不会有任何错误出现,如果持续报错,并且过了10分钟错误依然没有消失,检查之前的步骤是否有问题

9.2 运行 kubectl get pods –all-namespaces 查看结果,如果STATUS都为Running,恭喜你,你的master已经安装成功了。

注意:你的结果显示的条数未必和我完全一样,因为我这里有node节点的相关信息,而你还没有添加node节点。

[root@centos7-base-ok]# kubectl get pods –all-namespaces

NAMESPACE NAME READY STATUS RESTARTS AGE

default nginx-app-1666850838-4z2tb 1/1 Running 0 3d

kube-system calico-etcd-0ssdd 1/1 Running 0 3d

kube-system calico-node-1zfxd 2/2 Running 1 3d

kube-system calico-node-s2gfs 2/2 Running 1 3d

kube-system calico-node-xx30v 2/2 Running 1 3d

kube-system calico-policy-controller-336633499-wgl8j 1/1 Running 0 3d

kube-system etcd-k8s-1 1/1 Running 0 3d

kube-system kube-apiserver-k8s-1 1/1 Running 0 3d

kube-system kube-controller-manager-k8s-1 1/1 Running 0 3d

kube-system kube-dns-2425271678-trmxx 3/3 Running 1 3d

kube-system kube-proxy-79kkh 1/1 Running 0 3d

kube-system kube-proxy-n1g6j 1/1 Running 0 3d

kube-system kube-proxy-vccr6 1/1 Running 0 3d

kube-system kube-scheduler-k8s-1 1/1 Running 0 3d

10.安装node节点,执行在master节点执行成功输出的日志语句(node节点执行)

注意:执行如下语句的之前,一定要确认node节点下载了上文提到的镜像,否则因为镜像下载不成功会导致node节点初始化失败;第二点,一定要时刻查看/var/log/messages日志,如果镜像版本发生变化,在日志里会提示需要下载的镜像;第三点,就是要有耐心,如果你的网络可以下载到镜像,你当个安静的美男子就可以了,因为 kubeadm 会帮你做一切,知道你发现/var/log/messages不再有错误日志出现,说明它已经帮你搞定了所有事情,你可以开心的玩耍了。

[root@centos7-base-ok]# kubeadm join –token xxxxxxxx 192.168.80.28:6443

1.验证子节点,在master节点执行 kubectl get nodes 查看节点状态。

注意:node的状态会变化,添加成功后才是Ready。

[root@centos7-base-ok]# kubectl get nodes

NAME STATUS AGE VERSION

k8s-1 Ready 3d v1.7.3

k8s-2 Ready 3d v1.7.3

k8s-3 Ready 3d v1.7.3

12.恭喜你,你可以开心的进行kubernetes1.7.3之旅了

安装后记

Kubernetes,想说爱你不容易啊 ,欢迎其它团队或者个人与我们团队进行交流,有意向可以评论区给我留言。

补充:目前官方说dashboard的HEAD版本支持1.7,但是我试了下dashboard确实不行,希望官方加快修复,还有就是多些错误定位的方法,否则很难提出具体的问题。

本文转自CSDN-k8s的部署

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
27天前
|
Kubernetes 持续交付 Docker
利用 Docker 和 Kubernetes 实现微服务部署
【10月更文挑战第2天】利用 Docker 和 Kubernetes 实现微服务部署
|
23天前
|
Prometheus Kubernetes 监控
k8s部署针对外部服务器的prometheus服务
通过上述步骤,您不仅成功地在Kubernetes集群内部署了Prometheus,还实现了对集群外服务器的有效监控。理解并实施网络配置是关键,确保监控数据的准确无误传输。随着监控需求的增长,您还可以进一步探索Prometheus生态中的其他组件,如Alertmanager、Grafana等,以构建完整的监控与报警体系。
111 60
|
24天前
|
Prometheus Kubernetes 监控
k8s部署针对外部服务器的prometheus服务
通过上述步骤,您不仅成功地在Kubernetes集群内部署了Prometheus,还实现了对集群外服务器的有效监控。理解并实施网络配置是关键,确保监控数据的准确无误传输。随着监控需求的增长,您还可以进一步探索Prometheus生态中的其他组件,如Alertmanager、Grafana等,以构建完整的监控与报警体系。
145 62
|
30天前
|
Kubernetes Docker 微服务
微服务实践k8s&dapr开发部署实验(1)服务调用(一)
微服务实践k8s&dapr开发部署实验(1)服务调用(一)
44 2
|
30天前
|
Kubernetes 网络安全 容器
基于Ubuntu-22.04安装K8s-v1.28.2实验(一)部署K8s
基于Ubuntu-22.04安装K8s-v1.28.2实验(一)部署K8s
111 2
|
1月前
|
Kubernetes 应用服务中间件 nginx
k8s基础使用--使用k8s部署nginx服务
本文介绍了Kubernetes中核心概念Deployment、Pod与Service的基本原理及应用。Pod作为最小调度单元,用于管理容器及其共享资源;Deployment则负责控制Pod副本数量,确保其符合预期状态;Service通过标签选择器实现Pod服务的负载均衡与暴露。此外,还提供了具体操作步骤,如通过`kubectl`命令创建Deployment和Service,以及如何验证其功能。实验环境包括一台master节点和两台worker节点,均已部署k8s-1.27。
119 1
|
2月前
|
存储 Kubernetes 负载均衡
CentOS 7.9二进制部署K8S 1.28.3+集群实战
本文详细介绍了在CentOS 7.9上通过二进制方式部署Kubernetes 1.28.3+集群的全过程,包括环境准备、组件安装、证书生成、高可用配置以及网络插件部署等关键步骤。
320 3
CentOS 7.9二进制部署K8S 1.28.3+集群实战
|
2月前
|
Kubernetes 负载均衡 前端开发
二进制部署Kubernetes 1.23.15版本高可用集群实战
使用二进制文件部署Kubernetes 1.23.15版本高可用集群的详细教程,涵盖了从环境准备到网络插件部署的完整流程。
84 2
二进制部署Kubernetes 1.23.15版本高可用集群实战
|
22天前
|
NoSQL 关系型数据库 Redis
高可用和性能:基于ACK部署Dify的最佳实践
本文介绍了基于阿里云容器服务ACK,部署高可用、可伸缩且具备高SLA的生产可用的Dify服务的详细解决方案。
|
2月前
|
Kubernetes 应用服务中间件 nginx
Kubernetes上安装Metallb和Ingress并部署应用程序
Kubernetes上安装Metallb和Ingress并部署nginx应用程序,使用LoadBalancer类型的KubernetesService
139 4

推荐镜像

更多