使用GitLab CI/CD部署应用到Kubernetes集群的方案

简介: 使用GitLab CI/CD部署应用到Kubernetes集群的方案

最近业余时间调研了一下在GitLab CI/CD中部署应用到Kubernetes的方案。这是一个老生常谈的话题,很多粉丝和读者问我如何部署应用到K8s中。其实思路是很清晰的,只是其中又很多点大家可能无法串起来。那么本篇文章就带领大家实践一下如何做CD的方案。

本方案的好处就是,读者不需要了解太多关K8s相关知识也可以实现该方案。

Kubernets的命令行工具是kubectl。就像我们使用docker命令来管理docker的镜像,容器一样。
k8s中的所有资源都可以使用kubectl 来进行管理。例如一下几个命令

查看命名空间

kubectl get ns

查看所有命名空间下的pod

kubectl get pods --all-namespaces

查看当前命名空间下的deploment

kubectl get deployment

查看当前命名空间下的service

kubectl get services

部署一个应用

# workload.yaml定义了部署应用的所有参数
kubectl apply -f workload.yaml

一个应用模板

apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-deploy
  namespace: ci-test
spec:
  replicas: 1
  template:
    metadata:
      labels:
        app: nginx-deploy        
    spec:
      containers:
        - name: nginx-deploy
          imagePullPolicy: Always
          image: nginx
          env:
          - name: TZ
            value: Asia/Shanghai
  selector:
    matchLabels:
      app: nginx-deploy
---
apiVersion: v1
kind: Service
metadata:
  name: nginx-deploy-ci-test
  namespace: ci-test
spec:
  type: NodePort
  ports:
    - protocol: TCP
      port: 80
      targetPort: 80
      nodePort: 31594
  selector:
    app: nginx-deploy

kubectl是一个客户端,你可以在本地安装一个kubectl。配置好信息,就可以管理千里之外的k8s集群了。

在CI/CD中我们要部署应用到K8s集群中,也离不开它。
下面进入正题,
这个方案的架构是这样的。

GitLab Runner 是使用docker安装的,执行器为dokcer。(有很多同学不明白为什么在K8s里执行器还用docker啊。这是因为K8s执行器作者也不会啊🤣🤣,确切说,还没学到,实践到那一部分)。一般我都是"一个docker走天下" 能用dokcer装绝不要其他方式装。有条件的同学可以使用k8s作为执行器,动态伸缩还是很好用的。
在流水线中使用kubectl的容器来执行kubectl的命令
预设一个yaml模板来装载应用的部署信息
kubeconfig是存放在宿主机本地,通过挂载目录映射到kubectl的容器中

kubectl镜像的使用

kubectl 的容器我选用的是 bitnami/kubectl

使用方法是

# 获取kubectl的版本号
docker run --rm --name kubectl bitnami/kubectl:latest version

# 挂载目录配置kubectl
docker run --rm --name kubectl -v /path/to/your/kube/config:/.kube/config bitnami/kubectl:latest

特别注意,这个镜像其实是一个二进制文件,要执行命令必须在 docker run ... 的命令后,直接加命令。
注意不要有 kubectl。 比如你要执行 kubectl version 只需要这样写

# 获取kubectl的版本号
docker run --rm --name kubectl bitnami/kubectl:latest version

这也是二进制镜像与其他镜像不一致的地方。想要了解更多里看看 Docker中有关 entrypoint的文档。

kubectl镜像的配置

在安装了kubectl的机器上 输入以下命令可以查看kubectl的配置信息

# 获取kubectl的配置信息
kubectl config view

得到的内容大致是这样的。

apiVersion: v1
clusters:
- cluster:
    certificate-authority-data: DATA+OMITTED
    server: https://1.2.3.4:6443
  name: kubernetes
- cluster:
    certificate-authority: C:\Users\fizz\.minikube\ca.crt
    server: https://172.19.226.148:8443
  name: minikube
contexts:
- context:
    cluster: kubernetes
    user: kubernetes-admin
  name: k8s
- context:
    cluster: minikube
    user: minikube
  name: minikube
current-context: minikube
kind: Config
preferences: {}
users:
- name: kubernetes-admin
  user:
    client-certificate-data: REDACTED
    client-key-data: REDACTED
- name: minikube
  user:
    client-certificate: C:\Users\fizz\.minikube\profiles\minikube\client.crt
    client-key: C:\Users\fizz\.minikube\profiles\minikube\client.key

一个yaml格式的内容。
最主要的是clusters contexts users

clusters 是用于配置集群信息的,可以配置多个,每个集群需要集群的证书,服务地址,以及名称。这个集群名称会在下面的contexts(上下文),users(用户)中用到。

contexts是用于kubectl的上下文,有几个上下文,每个上下文都有一个名称,可以使用kubectl来切换上下文,以此来达到管理多个集群的目的。 current-context 表明当前的上下文。

users 是用于配置操作集群的用户。每个用户也都需要配置证书和秘钥。

如果你不知道这个东西怎么生成(其实我也不太清楚),也没关系。只需要知道在哪里拿到就行了。
比如我本地的集群 就在 这个路径下存着C:\Users\fizz\.kube在这里插入图片描述

如果是linux服务器上,那么可以在 ~/.kube/config中找到该文件。

有了这个东西,你就可以为所以为了。在集群想干嘛就干嘛。哈哈...

OK,现在有了配置文件,有了kubectl的镜像。那现在本地环境实验一把。
在本地运行kubectl的容器,挂载一个集群的配置文件,并打印出所有命名空间下的pod

docker run --rm --name kubectl -v /mnt/d/watch/config:/.kube/config bitnami/kubectl:latest get pods --all-namespaces

从下图可以看到,答案符合预期。
在这里插入图片描述

GitLab CI/CD中使用kubectl镜像

在本地验证了使用kubectl镜像管理集群的方案。下面就需要在GitLab CI/CD中来实践。
这里就有一个问题了。
由于kubectl是二进制镜像。在容器运行时必须要执行实质命令。否则会自动退出。那么在GitLab CI/CD该怎么操作那?
总不能在 关键词script中 执行 docker run bitnami/kubectl apply -f workload.yaml 吧。
其实这样应该是可以的,但是很不优雅。优雅的方式是使用 关键词image 指定镜像为 bitnami/kubectl 再进行操作。
但这样做有一个问题,就是无法在运行该容器的时候 执行kubectl的命令。

伟大的GitLab CI/CD开发人员已经想到了这个问题,并给出详细的文档。点击查看详情

在这里插入图片描述

用我二流的英语知识给大家解释一下这段英文的大致意思吧。

有些docker镜像已经定义好了入口,你在run的时候就会执行一些脚本。你要想运行你的命名就只能在run的命令 后加。那么如果我只是想把这个镜像当做基础镜像,真正的脚本定义在script中。
这个时候就使用关键词下image下的 entrypoint 配置项,重置该镜像的入口。覆盖容器运行时的脚本,并将 关键词,before_script, script, after_script三部分定义的脚本都合并起来当做容器运行时的脚本执行。

看懂了这段话,其实答案就呼之欲出了。
job就这样写就可以了

deploy_k8s:
  image:
    name: bitnami/kubectl
    entrypoint: [""]
  script:
    - kubectl version

这样应该就可以了。放到流水线里执行一下。

流水线日志如下,
在这里插入图片描述

答案与预期有些许差异。正确执行了kubectl version命令。但报了一个错。
The connection to the server localhost:8080 was refused - did you specify the right host or port?

聪明的读者一下就猜到了,这是因为kubectl没有配置文件导致的。
那么就给它配一个集群吧。

到这里就剩最后一步了。配置流水线中的kubectl镜像。
由于是流水线中的docker镜像,这里要使用挂载本地目录,将配置信息映射到容器中。我之前有写过一篇文章介绍这一配置。
[gitlab ci/cd如何在docker in docker 下 将流水线的产物输出到宿主机上?
](https://fizzz.blog.csdn.net/article/details/120195224)

做法就是
找到GitLab Runner的配置文件 config.toml。
找到对应的runner。
vim /srv/gitlab-runner/config/config.toml

在volumes中增加一个目录挂载。
"/srv/gitlab-runner/config/kubeconfig:/build/kubeconfig:rw"
如下图
在这里插入图片描述

我们需要把kubectl 的配置文件放在宿主机的 /srv/gitlab-runner/config/kubeconfig 目录里。
像这样,文件名为config 不能错。
在这里插入图片描述
配置完后,修改作业测试。

deploy_k8s:
  image:
    name: bitnami/kubectl:latest
    entrypoint: [""]
  before_script:
    - cp -rf /build/kubeconfig/config /.kube/config
  script: 
    - echo "deploy to k8s cluster..."
    - kubectl version
    - kubectl get pods --all-namespaces

编写完提交。 下面就是见证奇迹的时刻了。

在这里插入图片描述

答案诚如我所预期,打印出了集群中所有的命名空间下的pod数据。
你永远可以相信GitLab CI/CD,你永远可以相信我的探索能力。中国人不骗中国人。

如何部署到K8s集群那?
核心命令行就是下面这行。

kubectl apply -f workload.yaml

运行此命令会删除旧的部署,重新部署,即使你二次使用的docker镜像版本一致,内容不一致也能部署成功。apply 大法好。

workload.yaml 这个文件可以直接放在项目根目录,可以使用一些变量来定义镜像地址,镜像版本,部署端口。并在流水线中替换他们。这些都是常规操作。此外还可以加一下部署后的验证。打印一下调试日志。增加部署成功,部署失败的钉钉通知,邮件通知。这些都是附加项,之前也有介绍过。

本文到此就结束了,有关kubectl镜像的使用问题,以及在GitLab CI/CD中使用kubectl镜像的问题让我花了不少时间查阅资料。如果文章对你有帮助。请别忘记点赞。前端P6切图仔,擅长增删改查,略懂GitLab CI/CD。需要你的支持。谢谢。

最后感谢严奇同学提供的集群支持,能让我顺利完成k8s的CD实践,非常感谢。

相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
3天前
|
存储 运维 Kubernetes
Kubernetes 集群的监控与维护策略
【4月更文挑战第23天】 在微服务架构日益盛行的当下,容器编排工具如 Kubernetes 成为了运维工作的重要环节。然而,随着集群规模的增长和复杂性的提升,如何确保 Kubernetes 集群的高效稳定运行成为了一大挑战。本文将深入探讨 Kubernetes 集群的监控要点、常见问题及解决方案,并提出一系列切实可行的维护策略,旨在帮助运维人员有效管理和维护 Kubernetes 环境,保障服务的持续可用性和性能优化。
|
3天前
|
Kubernetes 监控 Cloud Native
Kubernetes自动伸缩方案的终极指南
【4月更文挑战第18天】
17 0
Kubernetes自动伸缩方案的终极指南
|
5天前
|
存储 运维 Kubernetes
Kubernetes 集群的持续性能优化实践
【4月更文挑战第22天】在动态且复杂的微服务架构中,确保 Kubernetes 集群的高性能运行是至关重要的。本文将深入探讨针对 Kubernetes 集群性能优化的策略与实践,从节点资源配置、网络优化到应用部署模式等多个维度展开,旨在为运维工程师提供一套系统的性能调优方法论。通过实际案例分析与经验总结,读者可以掌握持续优化 Kubernetes 集群性能的有效手段,以适应不断变化的业务需求和技术挑战。
17 4
|
23天前
|
数据库 存储 监控
什么是 SAP HANA 内存数据库 的 Delta Storage
什么是 SAP HANA 内存数据库 的 Delta Storage
17 0
什么是 SAP HANA 内存数据库 的 Delta Storage
|
13天前
|
Kubernetes 监控 Cloud Native
构建高效云原生应用:基于Kubernetes的微服务治理实践
【4月更文挑战第13天】 在当今数字化转型的浪潮中,企业纷纷将目光投向了云原生技术以支持其业务敏捷性和可扩展性。本文深入探讨了利用Kubernetes作为容器编排平台,实现微服务架构的有效治理,旨在为开发者和运维团队提供一套优化策略,以确保云原生应用的高性能和稳定性。通过分析微服务设计原则、Kubernetes的核心组件以及实际案例,本文揭示了在多变的业务需求下,如何确保系统的高可用性、弹性和安全性。
17 4
|
14天前
无缝构建与部署:GitLab CI/CD首秀的实战攻略
无缝构建与部署:GitLab CI/CD首秀的实战攻略
25 0
无缝构建与部署:GitLab CI/CD首秀的实战攻略
|
14天前
|
JSON Kubernetes Go
无缝集成:在IntelliJ IDEA中利用Kubernetes插件轻松管理容器化应用
无缝集成:在IntelliJ IDEA中利用Kubernetes插件轻松管理容器化应用
25 0
无缝集成:在IntelliJ IDEA中利用Kubernetes插件轻松管理容器化应用
|
12天前
|
Kubernetes 搜索推荐 Docker
使用 kubeadm 部署 Kubernetes 集群(二)k8s环境安装
使用 kubeadm 部署 Kubernetes 集群(二)k8s环境安装
58 17
|
24天前
|
Kubernetes Ubuntu 应用服务中间件
Ubuntu 22.04 利用kubeadm方式部署Kubernetes(v1.28.2版本)
Ubuntu 22.04 利用kubeadm方式部署Kubernetes(v1.28.2版本)
103 0
|
25天前
|
消息中间件 Kubernetes Kafka
Terraform阿里云创建资源1分钟创建集群一键发布应用Terraform 创建 Kubernetes 集群
Terraform阿里云创建资源1分钟创建集群一键发布应用Terraform 创建 Kubernetes 集群
18 0