使用 Kustomize 帮你管理 kubernetes 应用(三):将 Kustomize 应用于 CI/CD

本文涉及的产品
容器服务 Serverless 版 ACK Serverless,952元额度 多规格
容器服务 Serverless 版 ACK Serverless,317元额度 多规格
简介: 本篇为系列文章第三篇,使用 jenkins 发布一个简单的使用 flask 写的 web 项目,来演示在 CI/CD 流程中 Kustomize 的简单使用。

前言

首先明确软件版本,我这里使用的是 Jenkins ver. 2.121.3 ,这个版本比较老,其上安装 Kubernetes 插件所使用 kubectl 版本也比较老,无法使用 Kustomize 的 yaml 文件需要的 apiVersion: apps/v1 ,直接使用生成 deploy.yaml 文件会报错,所以这里选择了自己构建一个包含 kubectlkustomize 的镜像,在镜像中使用 Kustomize 生成所需 yaml 文件并在 Kubernetes 上部署。

软件版本

软件 版本
Jenkins 2.121.3
kubectl v1.14.1
kustomize v2.0.3

前期准备

  • Jenkins :本篇使用 Jenkins 演示 CI/CD ,安装 Jenkins 就不在赘述,可以使用多种方法安装 Jenkins ,详细方法见官网。同时。 CI/CD 的工具有很多,这里为了省事使用笔者现有的 Jenkins 进行演示,不推荐使用同笔者一样的版本,请使用较新的版本;同时也可以使用其他 CI/CD 工具,这里推荐使用 drone。如果有更好的方案,欢迎交流。
  • kubectl & kustomize :上文中提到了由于 Jenkins 版本比较老,所以这里笔者自己制作了包含二者的 docker 镜像,已上传 dockerhub ,需要自取: guoxudongdocker/kubectl
  • Web 应用:这里使用 flask 写了一个简单的 web 应用,用于演示,同样以上传 dockerhub guoxudongdocker/flask-python

目录结构

首先看一下目录结构,目录中包括 DockerfileJenkinsfile 、 Kustomize 要使用的 deploy 目录以及 web 应用目录。

.
├── Dockerfile
├── Jenkinsfile
├── app
│   ├── main.py
│   └── uwsgi.ini
└── deploy
    ├── base
    │   ├── deployment.yaml
    │   ├── kustomization.yaml
    │   └── service.yaml
    └── overlays
        ├── dev
        │   ├── healthcheck_patch.yaml
        │   ├── kustomization.yaml
        │   └── memorylimit_patch.yaml
        └── prod
            ├── healthcheck_patch.yaml
            ├── kustomization.yaml
            └── memorylimit_patch.yaml

这里可以看到 overlays 总共有两个子目录 devprod ,分别代表不同环境,在不同的环境中,应用不同的配置。

Jenkins 配置

Jenkins 的配置相对简单,只需要新建一个 pipeline 类型的 job

WX20190506_180159

增加参数化构建,:参数化构建需要安装 Jenkins 插件

WX20190506_180918

然后配置代码仓库即可

WX20190507_094958

Pipeline

podTemplate(label: 'jnlp-slave', cloud: 'kubernetes',
  containers: [
    containerTemplate(
        name: 'jnlp',
        image: 'guoxudongdocker/jenkins-slave',
        alwaysPullImage: true
    ),
    containerTemplate(name: 'kubectl', image: 'guoxudongdocker/kubectl:v1.14.1', command: 'cat', ttyEnabled: true),
  ],
  nodeSelector:'ci=jenkins',
  volumes: [
    hostPathVolume(mountPath: '/var/run/docker.sock', hostPath: '/var/run/docker.sock'),
    hostPathVolume(mountPath: '/usr/bin/docker', hostPath: '/usr/bin/docker'),
    hostPathVolume(mountPath: '/usr/local/jdk', hostPath: '/usr/local/jdk'),
    hostPathVolume(mountPath: '/usr/local/maven', hostPath: '/usr/local/maven'),
    secretVolume(mountPath: '/home/jenkins/.kube', secretName: 'devops-ctl'),
  ],
)
{
    node("jnlp-slave"){
        stage('Git Checkout'){
            git branch: '${branch}', url: 'https://github.com/sunny0826/flask-python.git'
        }
        stage('Build and Push Image'){
            withCredentials([usernamePassword(credentialsId: 'docker-register', passwordVariable: 'dockerPassword', usernameVariable: 'dockerUser')]) {
                sh '''
                docker login -u ${dockerUser} -p ${dockerPassword}
                docker build -t guoxudongdocker/flask-python:${Tag} .
                docker push guoxudongdocker/flask-python:${Tag}
                '''
            }
        }
        stage('Deploy to K8s'){
            if ('true' == "${deploy}") {
                container('kubectl') {
                    sh '''
                    cd deploy/base
                    kustomize edit set image guoxudongdocker/flask-python:${Tag}
                    '''
                    echo "部署到 Kubernetes"
                    if ('prod' == "${ENV}") {
                        sh '''
                        # kustomize build deploy/overlays/prod | kubectl apply -f -
                        kubectl applt -k deploy/overlays/prod
                        '''
                    }else {
                        sh '''
                        # kustomize build deploy/overlays/dev | kubectl apply -f -
                        kubectl applt -k deploy/overlays/dev
                        '''
                    }    
                }
            }else{
                echo "跳过Deploy to K8s"
            }

        }
    }
}

这里要注意几点:

  • 拉取 git 中的代码需要在 jenkins 中配置凭据。
  • 笔者的 jenkins 部署在 Kubernetes 上,要操作集群的话,需要将 kubeconfig 以 Secret 的形式挂载到 jenkins 所在 namespace。
  • jenkins-slave 需要 Java 环境运行,所以要将宿主机的 jdk 挂载到 jenkins-slave 中。
  • 同样的,宿主机中需要事先安装 docker
  • docker-register 为 dockerhub 的登录凭证,需要在 jenkins 中添加相应的凭证。

演示

开始构建

这里选择环境、分支,填入版本即可开始构建,注意:这里的版本将已 tag 的形式标记 docker 镜像。

WX20190507_095142

这里就可以看到构建成功了

WX20190507_103721

查看结果

这里为了方便(其实就是懒),我就不给这个服务添加 ingress 来从外部访问了,这里使用 KT 打通本地和 k8s 集群网络来进行调试。

为了简化在Kubernetes下进行联调测试的复杂度,云效在SSH隧道网络的基础上并结合Kubernetes特性构建了一款面向开发者的辅助工具kt

这里看到这个服务正常启动了

WX20190507_104154

发布新版本

更新 web 服务并提交

WX20190507_104936

按照上面步骤在 jenkins 中重新构建,当然也可以配置钩子,每次代码提交后自动构建

查看查看新版本

同上面一样,在构建成功后查看服务是否更新

WX20190507_105539

可以看到,版本已经更新了

发布生产环境

这里模拟一下发布生产环境,假设生产环境是在 devops-prod 的 namespace 中,这里只做演示之用,真正的生产环境中,可能存在不止一个 k8s 集群,这时需要修改 Jenkinsfile 中的 secretVolume 来挂载不同 k8s 的 kubeconfig 来达到发布到不同集群的目的。当然,一般发布生产环境只需选择测试通过的镜像来发布即可,不需要在进行构建打包。

WX20190507_110730

查看生产版本

WX20190507_110850

总结

上面的这些步骤简单的演示了使用 jenkins 进行 CI/CD 的流程,流程十分简单,这里仅供参考

Kustomize 的作用

那么, Kustomize 在整个流程中又扮演了一个什么角色呢?

更新镜像

jenkinsfile 中可以看到, kustomize 更新了基础配置的镜像版本,这里我们之前一直是使用 sed -i "s/#Tag/${Tag}/g" deploy.yaml 来进行替换了,但是不同环境存在比较多的差异,需要替换的越来越多,导致 Jekninsfile 也越来越臃肿和难以维护。 kustomize 解决了这个问题。

kustomize edit set image guoxudongdocker/flask-python:${Tag}

环境区分

上面也提到了,不同的环境我们存在这许多差异,虽然看上去大致类似,但是很多细节都需要修改。这时 kustomize 就起到了很大的作用,不同环境相同的配置都放在 base 中,而差异就可以在 overlays 中实现。

.
├── base
│   ├── deployment.yaml
│   ├── kustomization.yaml
│   └── service.yaml
└── overlays
    ├── dev
    │   ├── healthcheck_patch.yaml
    │   ├── kustomization.yaml
    │   └── memorylimit_patch.yaml
    └── prod
        ├── healthcheck_patch.yaml
        ├── kustomization.yaml
        └── memorylimit_patch.yaml

可以看到, base 中维护了项目共同的基础配置,如果有镜像版本等基础配置需要修改,可以使用 kustomize edit set image ... 来直接修改基础配置,而真正不同环境,或者不同使用情况的配置则在 overlays 中 以 patch 的形式添加配置。这里我的配置是 prod 环境部署的副本为2,同时给到的资源也更多,详情可以在 Github 上查看。

与 kubectl 的集成

在 jenkinsfile 中可以看到

# kustomize build deploy/overlays/dev | kubectl apply -f -
kubectl apply -k deploy/overlays/dev

这两条命令的执行效果是一样的,在 kubectl v1.14.0 以上的版本中,已经集成了 kustomize ,可以直接使用 kubectl 进行部署。

结语

这里只是对 kustomize 在 CI/CD 中简单应用的展示,只是一种比较简单和基础的使用,真正的 CI 流程要比这个复杂的多,这里只是为了演示 kustomize 的使用而临时搭建的。而 kustomize 还有很多黑科技的用法,将会在后续的文章中介绍。

相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
21小时前
|
Kubernetes 持续交付 Python
Kubernetes(通常简称为K8s)是一个开源的容器编排系统,用于自动化部署、扩展和管理容器化应用程序。
Kubernetes(通常简称为K8s)是一个开源的容器编排系统,用于自动化部署、扩展和管理容器化应用程序。
13 4
|
2天前
|
存储 Kubernetes 负载均衡
|
6天前
|
Kubernetes Docker 容器
里云容器服务Kubernetes版(ACK)上快速部署应用
里云容器服务Kubernetes版(ACK)上快速部署应用
|
6天前
|
存储 Kubernetes 负载均衡
容器服务Kubernetes版(ACK)上快速部署应用
在阿里云ACK上快速部署应用,包括创建Kubernetes集群、使用`kubectl`部署或更新应用镜像、配置Ingress与ALB集成。首先开通ACK和ALB服务,然后创建集群。编写`deployment.yaml`和`ingress.yaml`文件,部署应用和设定路由规则。通过ALB控制台配置负载均衡器,最后验证部署是否可通过ALB访问。如遇问题,参考官方文档或寻求阿里云支持。
|
7天前
|
Kubernetes Cloud Native 微服务
企业级容器部署实战:基于ACK与ALB灵活构建云原生应用架构
这篇内容概述了云原生架构的优势,特别是通过阿里云容器服务Kubernetes版(ACK)和应用负载均衡器(ALB)实现的解决方案。它强调了ACK相对于自建Kubernetes的便利性,包括优化的云服务集成、自动化管理和更强的生态系统支持。文章提供了部署云原生应用的步骤,包括一键部署和手动部署的流程,并指出手动部署更适合有技术背景的用户。作者建议在预算允许的情况下使用ACK,因为它能提供高效、便捷的管理体验。同时,文章也提出了对文档改进的建议,如添加更多技术细节和解释,以帮助用户更好地理解和实施解决方案。最后,展望了ACK未来在智能化、安全性与边缘计算等方面的潜在发展。水文一篇,太忙了,见谅!
|
11天前
|
存储 弹性计算 运维
阿里云容器服务Kubernetes版(ACK)部署与管理体验评测
阿里云容器服务Kubernetes版(ACK)是一个功能全面的托管Kubernetes服务,它为企业提供了快速、灵活的云上应用管理能力。
75 2
|
17天前
|
Kubernetes 监控 Java
阿里云云效产品使用问题之进行Kubernetes分批发布时应用名被更改,是什么导致的
云效作为一款全面覆盖研发全生命周期管理的云端效能平台,致力于帮助企业实现高效协同、敏捷研发和持续交付。本合集收集整理了用户在使用云效过程中遇到的常见问题,问题涉及项目创建与管理、需求规划与迭代、代码托管与版本控制、自动化测试、持续集成与发布等方面。
|
17天前
|
Kubernetes Ubuntu jenkins
超详细实操教程!在现有K8S集群上安装JenkinsX,极速提升CI/CD体验!
超详细实操教程!在现有K8S集群上安装JenkinsX,极速提升CI/CD体验!
|
6天前
|
存储 Kubernetes 监控
Kubernetes 集群的持续性能优化策略
【5月更文挑战第70天】 随着容器化技术的普及,Kubernetes 已成为管理微服务架构的首选平台。然而,在大规模部署和长期运行过程中,集群往往会遭遇性能瓶颈,影响服务的响应速度和稳定性。本文将探讨针对 Kubernetes 集群的性能优化策略,包括资源调度优化、网络延迟降低、存储效率提升及监控与日志分析等方面,旨在为运维工程师提供一套系统化的持续优化方法,确保集群性能的长期稳定。
|
17天前
|
前端开发 Devops 测试技术
阿里云云效产品使用问题之更换所部署的环境关联的ACK集群该如何实现
云效作为一款全面覆盖研发全生命周期管理的云端效能平台,致力于帮助企业实现高效协同、敏捷研发和持续交付。本合集收集整理了用户在使用云效过程中遇到的常见问题,问题涉及项目创建与管理、需求规划与迭代、代码托管与版本控制、自动化测试、持续集成与发布等方面。