【Kubernetes】retrywatcher 在开发中的应用

简介: 介绍了 kubernetes 资源 watch 的工具类 retrywatcher 在开发中的应用

前言

在开发中我们会遇到需要 watch 某个 kuberentes 资源的变化,来进行一些操作。本文介绍了关于如何利用 client-go 来对资源进行 watch,以及 client-go 自带的工具类 retrywatcher 的使用。


环境准备

这里我们利用 kind 快速拉起一套 kubernetes 的环境,并在项目中引用对应 kubernetes 版本的 client-go 包。

需要注意的是 client-go 包与 kubenretes 的对应版本第一位需要 1 -》0

kind create cluster --name dev --image kindest/node:v1.22.7
go get k8s.io/client-go@v0.22.7

环境准备好后,我们准备一个 configmap 作为需要 watch 的对象

apiVersion: v1
data:  field1: value1
  field2: value2
kind: ConfigMap
metadata:  name: my-configuration
  namespace: default


场景实践

这里我们直接利用 kind 拉起集群的 kubeconfig 来初始化 client,具体可以参考 开发中与 APIServer 常见的几种认证方式

varkubeconfig*stringifhome :=homedir.HomeDir(); home!="" {
kubeconfig=flag.String("kubeconfig", filepath.Join(home, ".kube", "config"), "")
} else {
kubeconfig=flag.String("kubeconfig", "", "")
}
flag.Parse()
rc, err :=clientcmd.BuildConfigFromFlags("", *kubeconfig)
iferr!=nil {
panic(err)
}
cs, err :=kubernetes.NewForConfig(rc)
iferr!=nil {
panic(err)
}


clientset 初始化完成后,利用 watch 接口是可以的,但是 APIServer 会定期关闭 watch 链接,这样就会导致中断,根据 github issue 中,官方推荐使用 watch 的工具包。

image.png


获取 RetryWatcher

直接上代码,我们来分步介绍下

funcGetRetryWatcher(ctxcontext.Context, cs*kubernetes.Clientset, cmNamestring) (*watchtools.RetryWatcher, error) {
namespace :=metav1.NamespaceDefaultcmInit, err :=cs.CoreV1().ConfigMaps(namespace).Get(ctx, cmName, metav1.GetOptions{})
iferr!=nil {
returnnil, err    }
// create retry watcherretryWatcher, err :=watchtools.NewRetryWatcher(cmInit.ResourceVersion, &cache.ListWatch{
WatchFunc: func(optionsmetav1.ListOptions) (watch.Interface, error) {
returncs.CoreV1().ConfigMaps(namespace).Watch(ctx, metav1.ListOptions{
FieldSelector: fmt.Sprintf("metadata.name=%s", cmName),
            })
        },
    })
iferr!=nil {
returnnil, fmt.Errorf("create retry watcher error: %v", err)
    }
returnretryWatcher, nil}

首先我们通过 get 先获取到当前需要 watch 的 configmap 的实例对象。这一步两个目的:

  1. 第一个是需要确认下我们需要 watch 的资源是否存在
  2. 第二个也是最重要的是获取当前资源的 ResourceVersion,这也是 watch 的基线
cmInit, err :=cs.CoreV1().ConfigMaps(namespace).Get(ctx, cmName, metav1.GetOptions{})
iferr!=nil {
// k8serrors.IsNotFound(err)}returnnil, err}

接下来我们就可以实例化 RetryWatcher 对象了,其中需要传入:

  1. 当前资源的 ResourceVersion
  2. watch资源的过滤条件,由于我们只需要 watch 一个对象,直接使用 FieldSelector 根据 name 过滤,批量情况下建议使用 Label 过滤。
// create retry watcherretryWatcher, err :=watchtools.NewRetryWatcher(cmInit.ResourceVersion, &cache.ListWatch{
WatchFunc: func(optionsmetav1.ListOptions) (watch.Interface, error) {
returncs.CoreV1().ConfigMaps(namespace).Watch(ctx, metav1.ListOptions{
FieldSelector: fmt.Sprintf("metadata.name=%s", cmName),
        })
    },
})

到这里的话,我们的 retryWatcher 对象创建完成了


使用 RetryWatcher

ctx :=context.Background()
cmName :="my-configuration"retryWatcher, err :=GetRetryWatcher(ctx, cs, cmName)
iferr!=nil {
panic(err)
}
deferretryWatcher.Stop()
for {
select {
caseevent :=<-retryWatcher.ResultChan():
cm, ok :=event.Object.(*corev1.ConfigMap)
if!ok {
continue        }
switchevent.Type {
// "k8s.io/apimachinery/pkg/watch"casewatch.Deleted:
// do nothingcasewatch.Added:
// do nothingcasewatch.Modified:
fmt.Println("change to", cm.Data)
        }
case<-ctx.Done():
return    }
}

可以看到上述代码中,获取到 retrywatcher 后我们可以监听资源变化发送出来的不同事件,从而进行不同的操作。

我们在上面的代码中对于 cm 变更的时候打印一下新的内容。

我们尝试修改 field1 对应的 value 试一下,执行如下 patch

kubectl patch cm my-configuration --type=json -p="[{\"op\":\"replace\", \"path\":\"/data/field1\", \"value\":\"newvalue1\"}]"

可以看到成功 watch 到了变化

image.png


挂载文件 + filewatcher

watch 相对来说适用于一些对于变更要求很敏感的场景,如果对于一些不太敏感的场景,我们也可以利用将 secret/configmap 内容当作文件挂载到 Pod 中,进程利用 filewatcher 去感知变更。


这里利用了 kubernetes 的特性,如果 secret/configmap 当作文件挂载到 Pod 中,当源头发生变更后,kubenretes 会将变更同步到挂载的文件中,当然这个不是实时的,会存在一定延迟。


以下案例中,我们通过将 configmap 挂载到容器根目录中的 my-configuration   目录中

apiVersion: v1
kind: Pod
metadata:  name: pod-demo
spec:  containers:  - name: test-po
    image: busybox
    command:    - top
    volumeMounts:    - mountPath: my-configuration
      name: my-configuration
      readOnly: true  volumes:  - name: my-configuration
    configMap:      name: my-configuration

key 以文件的方式在该目录下存储

image.png


我们可以利用 fsnotify 对文件进行 watch 即可。

相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。 &nbsp; &nbsp; 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
目录
相关文章
|
8月前
|
缓存 Kubernetes Docker
GitLab Runner 全面解析:Kubernetes 环境下的应用
GitLab Runner 是 GitLab CI/CD 的核心组件,负责执行由 `.gitlab-ci.yml` 定义的任务。它支持多种执行方式(如 Shell、Docker、Kubernetes),可在不同环境中运行作业。本文详细介绍了 GitLab Runner 的基本概念、功能特点及使用方法,重点探讨了流水线缓存(以 Python 项目为例)和构建镜像的应用,特别是在 Kubernetes 环境中的配置与优化。通过合理配置缓存和镜像构建,能够显著提升 CI/CD 流水线的效率和可靠性,助力开发团队实现持续集成与交付的目标。
|
8月前
|
存储 监控 对象存储
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
针对本地存储和 PVC 这两种容器存储使用方式,我们对 ACK 的容器存储监控功能进行了全新升级。此次更新完善了对集群中不同存储类型的监控能力,不仅对之前已有的监控大盘进行了优化,还针对不同的云存储类型,上线了全新的监控大盘,确保用户能够更好地理解和管理容器业务应用的存储资源。
542 268
|
11月前
|
存储 Kubernetes 持续交付
介绍一下Kubernetes的应用场景
【10月更文挑战第18天】介绍一下Kubernetes的应用场景。
682 3
|
7月前
|
Kubernetes 持续交付 开发工具
阿里云协同万兴科技落地ACK One GitOps方案,全球多机房应用自动化发布,效率提升50%
阿里云协同万兴科技落地ACK One GitOps方案,全球多机房应用自动化发布,效率提升50%
176 2
|
6月前
|
存储 监控 对象存储
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
129 0
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
|
7月前
|
存储 监控 对象存储
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
111 1
|
7月前
|
Kubernetes 持续交付 开发工具
阿里云协同万兴科技落地ACK One GitOps方案,全球多机房应用自动化发布,效率提升50%
阿里云协同万兴科技落地ACK One GitOps方案,全球多机房应用自动化发布,效率提升50%
|
8月前
|
存储 监控 对象存储
ACK容器监控存储全面更新:让您的应用运行更稳定、更透明
介绍升级之后的ACK容器监控体系,包括各大盘界面展示和概要介绍。
|
10月前
|
监控 持续交付 Docker
Docker容器化部署在微服务架构中的应用
Docker容器化部署在微服务架构中的应用
490 60
|
7月前
|
运维 分布式计算 Kubernetes
ACK One多集群Service帮助大批量应用跨集群无缝迁移
ACK One多集群Service可以帮助您,在无需关注服务间的依赖,和最小化迁移风险的前提下,完成跨集群无缝迁移大批量应用。

推荐镜像

更多