SREWorks云原生数智运维工程实践-Kubernetes资源编排之三:Kustomize篇(下)

简介: SREWorks云原生数智运维工程实践-

三、 Kustomize的特点

 

Kustomize的Overlay可以在Base的基础上,通过对resource/generator/transformer等的定义,形成新的应用定义,不管是Base还是Overlay,都可以通过kustomize build生成有效的YAML。

 

功能简单清晰,kubectl直接内部支持

不考虑派生,仅仅作为组件的YAML组织方式也很有帮助

也有自己的插件系统,例如可以用简单的YAML定义,使用文件生成ConfigMap/Secret等

允许注入K8S运行时数据

 

 

四、 Kustomize和Helm的对比

 

Kustomize相对于Helm而言,更加的轻量,只有一个CLI工具。也集成到了kubectl自身,使用及配置成本接近于0。Kustomize放弃了对模板的要求,改为参考Docker镜像的形式,通过Base+Overlay的方式对应用的原始YAML进行派生。

 

Base YAML管控:Helm最大的特点是定制仅限于预先存在的配置选项。不仅如此,Chart作者还必须用有点麻烦的模板化方式实现这些定制选项。这个时候Kustomize不受限制的Overlay会更加灵活,想怎么覆盖就怎么覆盖。所以Helm对Base YAML强管控;而Kustomize虽然也有Base,但Overlay的存在让这个限制几乎不存在。

模板语法层面:Kustomize相较于Helm去掉了模板语法,入门门槛更低,更易使用。当然如果玩的高阶,两者都要学习很多东西。

部署层面:虽然Kustomize最为轻量,但因为Helm3取消了Tiller依赖,所以差别也不是很大,两者都是二进制命令工具生成YAML后直接下发。

工作流程上:

 

Helm定义Chart->填充->运行。在Chart中没有定义的内容是无法更改的

KustomizeBase和Overlay都是可以独立运作的,增加新对象,或者对编写Base时未预料到的内容进行变更,都非常简单

 

基于上述工作流程的对比,如果是要公开发布一个复杂的组件,编写一个复杂而设计良好的Helm Chart可以给用户很大帮助。用户在缺失了自由性之下,仅仅通过values.yaml的阅读和配置就可以对这种复杂的部署产生一个较为深入的认知。

 

如果是常见的业务应用,虽然不同的部署之间差异不大(比如日常预发生产),但是因为快速迭代及需求变化,未必可以一开始就做好相关的变化限制,用Kustomize是更好的选择。

 

对于承载应用Application这个概念而言Kustomize和Helm的短板是一致的,都没有进一步提供包之间的依赖处理、外部资源申请及维护、变量间传递等能力。

 

对于承载组件Component这个概念而言,Kustomize和Helm类似,都是合适的工具。虽然Helm和Kustomize在自身的能力和流程上有着很多区别,但最终流程都是:开发者一堆YAML->合适的参数映射及渲染方式->使用者填参/覆盖->apply到目标K8S中。萝卜青菜,各有所爱。

 

五、 SREWorks的Kustomize组件实践

 

在SREWorks的appmanager中,将Kustomize与Helm并列放在一起成为一种组件类型,当前这种组件类型还未内置到出厂组件中,后续会上架到云端市场,供用户插拔安装。

 

 

- revisionName: "CHART|sreworks@management-controlplane@1.0|_"

  parameterValues:

    - name: Map

      value:

        clusterId: "{{ Global.clusterId }}"

        product: es

        userID: "{{ Global.uid }}"

        vpcID: "{{ Global.vpcID }}"

        vswitchID: "{{ Global.vswitchID }}"

        namespaceRegexes: "^(essen|es)$"

- revisionName: KUSTOMIZE|elasticsearch-repos@2.0.1@test|_

  parameterValues:

    - name: kubeconfig

      value: "{{ Global.kubeconfig }}"

      toFieldPaths:

        - spec.base64Kubeconfig

    - name: path

      value: "./"

      toFieldPaths:

        - spec.path

  dependencies:

    - component: "CHART|sreworks@management-controlplane@1.0"

- revisionName: "STATUS|KUSTOMIZE@esonack-cluster-baselines|_"

  dependencies:

    - component: KUSTOMIZE|es-cluster-baselines@3.1.0@test

  parameterValues:

    - name: kubeconfig

      value: "{{ Global.kubeconfig }}"

      toFieldPaths:

        - spec.base64Kubeconfig

    - name: options

      value:

        groups:

          - namespace: sreworks-system

            labels:

              app: sreworks

            resources:

              - v1/pods

      toFieldPaths:

        - spec.options

 

 

如上面所示,在appmanager中的OAM YAML中,插入Helm和Kustomize两种组件,并且设置依赖关系,在Helm组件下发完成后,再进行Kustomize组件的下发;在Kustomize组件下发完成后,对核心Pod进行状态探测,待Pod正常之后才算作部署完成。

 

六、 总结

 

Kustomize是一个通用工具,它的作用是对Kubernetes资源进行定制后产生新的YAML文件,并保持原始的YAML文件不变。从这个意义上来说,你可以把Kustomize看成是Kubernetes YAML文件的转换工具,类似XML和XSLT的关系。

 

Kustomize的一个重要特征是不使用模板,而是直接工作在原始的YAML文件上。这一点与Helm是不同的。不使用模板好处在于简单易懂,不需要掌握复杂的模板语法,而Helm的YAML文件基本都被预置变量抠得毫无可读性。

 

Kustomize的另外一个优势是集成在kubectl中,这就意味着不需要安装额外的工具就可以进行定制。需要注意的是,由于实现上的原因,kubectl自带的Kustomize的版本比较低,目前仍然需要安装单独的Kustomize工具。这个问题要到1.20版本才会解决。

 

相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。     相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
6月前
|
数据采集 运维 数据可视化
AR 运维系统与 MES、EMA、IoT 系统的融合架构与实践
AR运维系统融合IoT、EMA、MES数据,构建“感知-分析-决策-执行”闭环。通过AR终端实现设备数据可视化,实时呈现温度、工单等信息,提升运维效率与生产可靠性。(238字)
|
7月前
|
存储 运维 安全
运维知识沉淀工具深度解析:从结构设计到落地实践全拆解
运维知识沉淀工具助力团队将零散经验结构化存储,实现问题处理路径标准化、知识复用化。通过标签、模板与自动化调取机制,让每次处理都留下可复用资产,提升团队协同效率与系统稳定性。
|
6月前
|
机器学习/深度学习 人工智能 运维
三重Reward驱动的运维智能体进化:多智能体、上下文工程与强化学习的融合实践
这篇文章系统性地阐述了 AI 原生时代下,面向技术风险领域的智能体系统(DeRisk)的架构设计、核心理念、关键技术演进路径与实践落地案例。
三重Reward驱动的运维智能体进化:多智能体、上下文工程与强化学习的融合实践
|
8月前
|
运维 监控 负载均衡
高效运维实践:常见问题的应对策略与实践经验
本文探讨了运维工作中的五大核心挑战及应对策略,涵盖负载均衡优化、数据库性能提升、系统监控预警、容器化与微服务运维等方面,旨在帮助企业提升系统稳定性与运维效率。
|
8月前
|
运维 监控 安全
从实践到自动化:现代运维管理的转型与挑战
本文探讨了现代运维管理从传统人工模式向自动化转型的必要性与路径,分析了传统运维的痛点,如效率低、响应慢、依赖经验等问题,并介绍了自动化运维在提升效率、降低成本、增强系统稳定性与安全性方面的优势。结合技术工具与实践案例,文章展示了企业如何通过自动化实现运维升级,推动数字化转型,提升业务竞争力。
|
存储 Cloud Native 数据处理
从嵌入式状态管理到云原生架构:Apache Flink 的演进与下一代增量计算范式
本文整理自阿里云资深技术专家、Apache Flink PMC 成员梅源在 Flink Forward Asia 新加坡 2025上的分享,深入解析 Flink 状态管理系统的发展历程,从核心设计到 Flink 2.0 存算分离架构,并展望未来基于流批一体的通用增量计算方向。
491 0
从嵌入式状态管理到云原生架构:Apache Flink 的演进与下一代增量计算范式
|
7月前
|
运维 监控 Cloud Native
从本土到全球,云原生架构护航灵犀互娱游戏出海
本文内容整理自「 2025 中企出海大会·游戏与互娱出海分论坛」,灵犀互娱基础架构负责人朱晓靖的演讲内容,从技术层面分享云原生架构护航灵犀互娱游戏出海经验。
652 16
|
7月前
|
运维 监控 Cloud Native
从本土到全球,云原生架构护航灵犀互娱游戏出海
内容整理自「 2025 中企出海大会·游戏与互娱出海分论坛」,灵犀互娱基础架构负责人朱晓靖的演讲内容,从技术层面分享云原生架构护航灵犀互娱游戏出海经验。
|
11月前
|
运维 Cloud Native 测试技术
极氪汽车云原生架构落地实践
随着极氪数字业务的飞速发展,背后的 IT 技术也在不断更新迭代。极氪极为重视客户对服务的体验,并将系统稳定性、业务功能的迭代效率、问题的快速定位和解决视为构建核心竞争力的基石。
|
Kubernetes Cloud Native 微服务
探索云原生技术:容器化与微服务架构的融合之旅
本文将带领读者深入了解云原生技术的核心概念,特别是容器化和微服务架构如何相辅相成,共同构建现代软件系统。我们将通过实际代码示例,探讨如何在云平台上部署和管理微服务,以及如何使用容器编排工具来自动化这一过程。文章旨在为开发者和技术决策者提供实用的指导,帮助他们在云原生时代中更好地设计、部署和维护应用。
593 59

热门文章

最新文章

推荐镜像

更多