【Kubernetes】retrywatcher 在开发中的应用

简介: 介绍了 kubernetes 资源 watch 的工具类 retrywatcher 在开发中的应用

前言

在开发中我们会遇到需要 watch 某个 kuberentes 资源的变化,来进行一些操作。本文介绍了关于如何利用 client-go 来对资源进行 watch,以及 client-go 自带的工具类 retrywatcher 的使用。


环境准备

这里我们利用 kind 快速拉起一套 kubernetes 的环境,并在项目中引用对应 kubernetes 版本的 client-go 包。

需要注意的是 client-go 包与 kubenretes 的对应版本第一位需要 1 -》0

kind create cluster --name dev --image kindest/node:v1.22.7
go get k8s.io/client-go@v0.22.7

环境准备好后,我们准备一个 configmap 作为需要 watch 的对象

apiVersion: v1
data:  field1: value1
  field2: value2
kind: ConfigMap
metadata:  name: my-configuration
  namespace: default


场景实践

这里我们直接利用 kind 拉起集群的 kubeconfig 来初始化 client,具体可以参考 开发中与 APIServer 常见的几种认证方式

varkubeconfig*stringifhome :=homedir.HomeDir(); home!="" {
kubeconfig=flag.String("kubeconfig", filepath.Join(home, ".kube", "config"), "")
} else {
kubeconfig=flag.String("kubeconfig", "", "")
}
flag.Parse()
rc, err :=clientcmd.BuildConfigFromFlags("", *kubeconfig)
iferr!=nil {
panic(err)
}
cs, err :=kubernetes.NewForConfig(rc)
iferr!=nil {
panic(err)
}


clientset 初始化完成后,利用 watch 接口是可以的,但是 APIServer 会定期关闭 watch 链接,这样就会导致中断,根据 github issue 中,官方推荐使用 watch 的工具包。

image.png


获取 RetryWatcher

直接上代码,我们来分步介绍下

funcGetRetryWatcher(ctxcontext.Context, cs*kubernetes.Clientset, cmNamestring) (*watchtools.RetryWatcher, error) {
namespace :=metav1.NamespaceDefaultcmInit, err :=cs.CoreV1().ConfigMaps(namespace).Get(ctx, cmName, metav1.GetOptions{})
iferr!=nil {
returnnil, err    }
// create retry watcherretryWatcher, err :=watchtools.NewRetryWatcher(cmInit.ResourceVersion, &cache.ListWatch{
WatchFunc: func(optionsmetav1.ListOptions) (watch.Interface, error) {
returncs.CoreV1().ConfigMaps(namespace).Watch(ctx, metav1.ListOptions{
FieldSelector: fmt.Sprintf("metadata.name=%s", cmName),
            })
        },
    })
iferr!=nil {
returnnil, fmt.Errorf("create retry watcher error: %v", err)
    }
returnretryWatcher, nil}

首先我们通过 get 先获取到当前需要 watch 的 configmap 的实例对象。这一步两个目的:

  1. 第一个是需要确认下我们需要 watch 的资源是否存在
  2. 第二个也是最重要的是获取当前资源的 ResourceVersion,这也是 watch 的基线
cmInit, err :=cs.CoreV1().ConfigMaps(namespace).Get(ctx, cmName, metav1.GetOptions{})
iferr!=nil {
// k8serrors.IsNotFound(err)}returnnil, err}

接下来我们就可以实例化 RetryWatcher 对象了,其中需要传入:

  1. 当前资源的 ResourceVersion
  2. watch资源的过滤条件,由于我们只需要 watch 一个对象,直接使用 FieldSelector 根据 name 过滤,批量情况下建议使用 Label 过滤。
// create retry watcherretryWatcher, err :=watchtools.NewRetryWatcher(cmInit.ResourceVersion, &cache.ListWatch{
WatchFunc: func(optionsmetav1.ListOptions) (watch.Interface, error) {
returncs.CoreV1().ConfigMaps(namespace).Watch(ctx, metav1.ListOptions{
FieldSelector: fmt.Sprintf("metadata.name=%s", cmName),
        })
    },
})

到这里的话,我们的 retryWatcher 对象创建完成了


使用 RetryWatcher

ctx :=context.Background()
cmName :="my-configuration"retryWatcher, err :=GetRetryWatcher(ctx, cs, cmName)
iferr!=nil {
panic(err)
}
deferretryWatcher.Stop()
for {
select {
caseevent :=<-retryWatcher.ResultChan():
cm, ok :=event.Object.(*corev1.ConfigMap)
if!ok {
continue        }
switchevent.Type {
// "k8s.io/apimachinery/pkg/watch"casewatch.Deleted:
// do nothingcasewatch.Added:
// do nothingcasewatch.Modified:
fmt.Println("change to", cm.Data)
        }
case<-ctx.Done():
return    }
}

可以看到上述代码中,获取到 retrywatcher 后我们可以监听资源变化发送出来的不同事件,从而进行不同的操作。

我们在上面的代码中对于 cm 变更的时候打印一下新的内容。

我们尝试修改 field1 对应的 value 试一下,执行如下 patch

kubectl patch cm my-configuration --type=json -p="[{\"op\":\"replace\", \"path\":\"/data/field1\", \"value\":\"newvalue1\"}]"

可以看到成功 watch 到了变化

image.png


挂载文件 + filewatcher

watch 相对来说适用于一些对于变更要求很敏感的场景,如果对于一些不太敏感的场景,我们也可以利用将 secret/configmap 内容当作文件挂载到 Pod 中,进程利用 filewatcher 去感知变更。


这里利用了 kubernetes 的特性,如果 secret/configmap 当作文件挂载到 Pod 中,当源头发生变更后,kubenretes 会将变更同步到挂载的文件中,当然这个不是实时的,会存在一定延迟。


以下案例中,我们通过将 configmap 挂载到容器根目录中的 my-configuration   目录中

apiVersion: v1
kind: Pod
metadata:  name: pod-demo
spec:  containers:  - name: test-po
    image: busybox
    command:    - top
    volumeMounts:    - mountPath: my-configuration
      name: my-configuration
      readOnly: true  volumes:  - name: my-configuration
    configMap:      name: my-configuration

key 以文件的方式在该目录下存储

image.png


我们可以利用 fsnotify 对文件进行 watch 即可。

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
14天前
|
缓存 Kubernetes Docker
GitLab Runner 全面解析:Kubernetes 环境下的应用
GitLab Runner 是 GitLab CI/CD 的核心组件,负责执行由 `.gitlab-ci.yml` 定义的任务。它支持多种执行方式(如 Shell、Docker、Kubernetes),可在不同环境中运行作业。本文详细介绍了 GitLab Runner 的基本概念、功能特点及使用方法,重点探讨了流水线缓存(以 Python 项目为例)和构建镜像的应用,特别是在 Kubernetes 环境中的配置与优化。通过合理配置缓存和镜像构建,能够显著提升 CI/CD 流水线的效率和可靠性,助力开发团队实现持续集成与交付的目标。
|
3月前
|
存储 Kubernetes 持续交付
介绍一下Kubernetes的应用场景
【10月更文挑战第18天】介绍一下Kubernetes的应用场景。
265 3
|
2天前
|
存储 监控 对象存储
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
针对本地存储和 PVC 这两种容器存储使用方式,我们对 ACK 的容器存储监控功能进行了全新升级。此次更新完善了对集群中不同存储类型的监控能力,不仅对之前已有的监控大盘进行了优化,还针对不同的云存储类型,上线了全新的监控大盘,确保用户能够更好地理解和管理容器业务应用的存储资源。
|
7天前
|
存储 监控 对象存储
ACK容器监控存储全面更新:让您的应用运行更稳定、更透明
介绍升级之后的ACK容器监控体系,包括各大盘界面展示和概要介绍。
|
1月前
|
人工智能 Kubernetes 安全
赋能加速AI应用交付,F5 BIG-IP Next for Kubernetes方案解读
赋能加速AI应用交付,F5 BIG-IP Next for Kubernetes方案解读
70 13
|
1月前
|
存储 Kubernetes 关系型数据库
阿里云ACK备份中心,K8s集群业务应用数据的一站式灾备方案
本文源自2024云栖大会苏雅诗的演讲,探讨了K8s集群业务为何需要灾备及其重要性。文中强调了集群与业务高可用配置对稳定性的重要性,并指出人为误操作等风险,建议实施周期性和特定情况下的灾备措施。针对容器化业务,提出了灾备的新特性与需求,包括工作负载为核心、云资源信息的备份,以及有状态应用的数据保护。介绍了ACK推出的备份中心解决方案,支持命名空间、标签、资源类型等维度的备份,并具备存储卷数据保护功能,能够满足GitOps流程企业的特定需求。此外,还详细描述了备份中心的使用流程、控制台展示、灾备难点及解决方案等内容,展示了备份中心如何有效应对K8s集群资源和存储卷数据的灾备挑战。
|
2月前
|
存储 运维 Kubernetes
K8s业务迁移最佳实践: 灵活管理资源备份与调整策略,实现高效简便的应用恢复
在当今快速变化的云原生领域,Kubernetes(K8s)集群的运维面临着诸多挑战,其中灾备与业务迁移尤为关键。ACK备份中心支持丰富的资源调整策略,在数据恢复阶段即可自动适配目标集群环境,确保业务无缝重启。
|
2月前
|
监控 持续交付 Docker
Docker 容器化部署在微服务架构中的应用有哪些?
Docker 容器化部署在微服务架构中的应用有哪些?
|
2月前
|
监控 持续交付 Docker
Docker容器化部署在微服务架构中的应用
Docker容器化部署在微服务架构中的应用
|
2月前
|
JavaScript 持续交付 Docker
解锁新技能:Docker容器化部署在微服务架构中的应用
【10月更文挑战第29天】在数字化转型中,微服务架构因灵活性和可扩展性成为企业首选。Docker容器化技术为微服务的部署和管理带来革命性变化。本文探讨Docker在微服务架构中的应用,包括隔离性、可移植性、扩展性、版本控制等方面,并提供代码示例。
75 1