Kubernetes 文件采集实践:Sidecar + hostPath 卷

简介: 本文通过一个简单的示例应用(Dockerfile)以及相应的部署配置(YAML),介绍了如何结合 Sidecar + hostPath 来实现 Kubernetes 文件的采集并保证数据在极端情况(Pod 崩溃、Node 宕机)下的安全性。

Kubernetes 日志查询分析实践中,我们介绍了如何通过 DaemonSet 方式部署 logtail 并采集标准输出/文件两种形式的数据。DaemonSet 部署的优势在于其能够尽可能地减少采集 agent 所占用的资源且支持标准输出采集,但因为每个 DaemonSet pod 需要负责 node 级别的数据采集,所以同一个 node 上的各个业务 pod 之间可能会相互影响,比如大数据量的业务 pod 可能会消耗更多的 logtail 处理时间片,进而影响到其他业务 pod 的数据采集。


因此,针对这类数据比较重要的业务文件,我们推荐采用 Sidecar 方式部署 logtail,即在业务 pod 内增加额外一个容器来运行 logtail,专注于该 pod 的文件采集。关于两种部署方式更为详细的优劣对比,可以参考采集方式对比,本文不再赘述。


考虑到使用 Sidecar 进行采集的业务往往对于数据安全性要求较高,所以本文将结合这一需求,介绍在 Sidecar 的基础上,通过配置 hostPath 卷来保证极端情况下(Node 宕机、Pod 崩溃等)数据的安全性。为了使内容更加易于理解和使用,本文会给出一个简单的示例应用(Dockerfile)以及相应的部署配置(YAML),方便读者在此基础上进行改造。


设计简介

Pod 崩溃

首先考虑下 pod 崩溃的场景。在默认情况下,Pod 内业务容器所产生的文件都是临时存在的,当 Pod 发生崩溃的时候,这些数据都会丢失。为了保证它们不丢,一个简单的思路就是把它们挂载到持久化卷,将数据与 pod 生命周期解耦,达到 pod 挂而数据活的效果。

在本文中,我们选择利用 hostPath 卷,将 pod 的数据目录挂载到其所运行的宿主机(node)上。由于单个 node 上会同时运行多个业务 pod,我们需要做一定的空间划分,一个可行的办法是在宿主机上提供一个数据目录(比如 /data),而每个 pod 在运行时从这个数据目录下创建一个子目录作为自己的数据空间(比如 /data/<pod_name>)。在这个数据空间下,pod 可以根据自己的需要再作划分,比如增加 logs 目录存放日志,data 目录存放业务逻辑生成的数据。


Node 宕机

在基于 hostPath 卷 + 宿主机数据目录这套方案的基础上,解决 node 宕机的方式非常简单,把数据目录和 node 本身解耦就行,比如使用云盘作为数据目录。这样 node 崩溃也无所谓,拉一个新的节点起来,重新

挂载上这块云盘即可恢复数据。如何挂载可以参考云盘存储卷概述



示例

以下将给出一个示例应用和部署配置(源码)来进一步说明上述设计。


应用及其部署配置

应用逻辑很简单,先按照我们之间设计中所说的,创建相应的 pod 数据目录,然后产生日志。


#!/bin/bashecho"Data directory: ${POD_DATA_DIR}"# 根据环境变量创建指定的日志目录(顺带创建了数据目录)。# 如果目录已存在,说明发生冲突,拼接当前时间并调整环境变量。if [ -d${POD_DATA_DIR} ]; thenecho"Existing data directory ${POD_DATA_DIR}, concat timestamp"POD_DATA_DIR="${POD_DATA_DIR}-$(date +%s)"echo"New data directory: ${POD_DATA_DIR}"fiPOD_LOG_DIR="${POD_DATA_DIR}/logs"mkdir-p${POD_LOG_DIR}# 为了统一 logtail 采集配置中的日志路径,创建软链接。ln-s${POD_LOG_DIR} /share/logs
# 产生日志。LOG_FILE_PATH=${POD_LOG_DIR}/app.log
for((i=0;i<10000000000000;i++)); doecho"Log ${i} to file" >> ${LOG_FILE_PATH}sleep1done

示例代码 run.sh 如上,分为以下几个步骤:

  1. 根据环境变量 POD_DATA_DIR(部署配置中指定),创建相应的数据目录及日志目录(logs)。
  2. 创建软链接以统一 logtail 采集配置中的日志路径,这个下一节会结合 sidecar 配置展开说明。此步骤非必须,对于在本地管理采集配置的 agent(比如 filebeat),直接采集 POD_LOG_DIR 目录就可以。
  3. 产生日志,实际应用可以根据需要执行相应 binary,但需要确保相关数据/日志落在 pod 数据目录下。


结合如下 Dockerfile,我们将 run.sh 打包为应用镜像,URL:registry.cn-hangzhou.aliyuncs.com/log-service/docker-log-test:sidecar-app

FROM registry.cn-hangzhou.aliyuncs.com/log-service/centos:centos7.7.1908
ADD run.sh /run.sh
RUN chmod +x /run.sh
ENTRYPOINT ["/run.sh"]


最后来看下应用部分的部署配置(YAML):

apiVersion: v1
kind: Pod
metadata:# 后缀不固定,随机生成名字。  generateName: app-sidecar-logtail-
  namespace: default
spec:  volumes:# 定义应用容器和 Logtail Sidecar 容器的共享目录。  - emptyDir: {}    name: share
# 定义宿主机上的数据目录,应用容器将在该目录下创建子目录作为自己的数据目录。  - hostPath:      path: /data
      type: DirectoryOrCreate
    name: parent-data-dir-on-host
  containers:# 应用容器,以文件形式输出日志。  - name: app
# 应用程序执行逻辑:# 1. 在宿主机数据目录下创建相应的子目录作为自身的数据目录。# 2. 为该数据目录创建相应的软链接,通过共享目录分享给 Sidecar 容器。# 3. 执行应用程序逻辑(此处为不断产生 mock 数据)。# 该镜像的 Dockerfile 及启动脚本参考目录 app。    image: registry.cn-hangzhou.aliyuncs.com/log-service/docker-log-test:sidecar-app
    imagePullPolicy: Always
    volumeMounts:# 挂载共享目录,以向 Sidecar 容器分享数据。    - mountPath: /share
      name: share
# 挂载宿主机数据目录,以创建相应的子目录。    - mountPath: /data
      name: parent-data-dir-on-host
    env:# 获取 PodName 以在宿主机上为该 Pod 创建相应的数据目录。    - name: POD_NAME
      valueFrom:        fieldRef:          fieldPath: metadata.name
    - name: POD_DATA_DIR
      value: /data/$(POD_NAME)

主要关注两个部分的配置:

  • volumes/volumeMounts: 此处将宿主机目录 /data 作为所有 pod 数据目录的父目录,并以相同的路径挂载到 pod 内。
  • env POD_NAME, POD_DATA_DIR: 此处我们使用 pod name 作为 pod 数据目录的命名,在父目录下创建相应的子目录。


完整部署配置(含 Sidecar)

接下来需要在上面的应用部署配置中增加 Sidecar 的配置,此处我们以 logtail 为例(其他 agent 可以根据其文档作相应调整),完整配置如下:

apiVersion: v1
kind: Pod
metadata:# 后缀不固定,随机生成名字。  generateName: app-sidecar-logtail-
  namespace: default
spec:  volumes:# 定义应用容器和 Logtail Sidecar 容器的共享目录。  - emptyDir: {}    name: share
# 定义宿主机上的数据目录,应用容器将在该目录下创建子目录作为自己的数据目录。  - hostPath:      path: /data
      type: DirectoryOrCreate
    name: parent-data-dir-on-host
  containers:# 应用容器,以文件形式输出日志。  - name: app
# 应用程序执行逻辑:# 1. 在宿主机数据目录下创建相应的子目录作为自身的数据目录。# 2. 为该数据目录创建相应的软链接,通过共享目录分享给 Sidecar 容器。# 3. 执行应用程序逻辑(此处为不断产生 mock 数据)。# 该镜像的 Dockerfile 及启动脚本参考目录 app。    image: registry.cn-hangzhou.aliyuncs.com/log-service/docker-log-test:sidecar-app
    imagePullPolicy: Always
    volumeMounts:# 挂载共享目录,以向 Sidecar 容器分享数据。    - mountPath: /share
      name: share
# 挂载宿主机数据目录,以创建相应的子目录。    - mountPath: /data
      name: parent-data-dir-on-host
    env:# 获取 PodName 以在宿主机上为该 Pod 创建相应的数据目录。    - name: POD_NAME
      valueFrom:        fieldRef:          fieldPath: metadata.name
    - name: POD_DATA_DIR
      value: /data/$(POD_NAME)
# Logtail Sidecar 容器,共享应用容器日志目录采集日志。  - name: logtail
    image: registry-vpc.cn-hangzhou.aliyuncs.com/log-service/logtail:v1.0.25.0-eca7ef7-aliyun
    volumeMounts:# 只读挂载共享目录,获取日志数据。    - mountPath: /share
      name: share
      readOnly: true    - mountPath: /data
      name: parent-data-dir-on-host
      readOnly: true    env:# 为每条日志附加 Pod 相关的属性,以便溯源。# 可通过修改 ALIYUN_LOG_ENV_TAGS 的值按需增/删字段,字段间使用 | 分隔。# 如何获取 Pod 属性可参考此文档:https://kubernetes.io/zh/docs/tasks/inject-data-application/environment-variable-expose-pod-information/    - name: ALIYUN_LOG_ENV_TAGS
      value: _node_name_|_node_ip_|_pod_name_|_pod_namespace_
    - name: _node_name_
      valueFrom:        fieldRef:          apiVersion: v1
          fieldPath: spec.nodeName
    - name: _node_ip_
      valueFrom:        fieldRef:          apiVersion: v1
          fieldPath: status.hostIP
    - name: _pod_name_
      valueFrom:        fieldRef:          fieldPath: metadata.name
    - name: _pod_namespace_
      valueFrom:        fieldRef:          fieldPath: metadata.namespace
# 设置 Logtail 使用的配置文件,以访问到指定区域的 SLS。# 规则:/etc/ilogtail/conf/<region>-<network_type>/ilogtail_config.json# - <region> 表示区域,比如 cn-hangzhou, cn-shanghai# - <network_type> 表示使用的网络类型,intranet 内网、internet 公网、acceleration 全球加速# 示例:# - 公网访问杭州公有云:/etc/ilogtail/conf/cn-hangzhou-internet/ilogtail_config.json# - 全球加速访问上海公有云:/etc/ilogtail/conf/cn-shanghai-acceleration/ilogtail_config.json    - name: ALIYUN_LOGTAIL_CONFIG
      value: '/etc/ilogtail/conf/cn-hangzhou-internet/ilogtail_config.json'# 设置 Logtail 实例的自定义标识符,以关联机器组并获取采集配置。可设置多个,使用英文逗号(,)分隔。    - name: ALIYUN_LOGTAIL_USER_DEFINED_ID
      value: sidecar-logtail-1,sidecar-logtail-2
# 设置 ALIUID,以访问相应的 SLS Project。可设置多个,使用英文逗号(,)分隔。    - name: ALIYUN_LOGTAIL_USER_ID
      value: "123456789"# 其他启动参数:参考 https://help.aliyun.com/document_detail/32278.html    - name: cpu_usage_limit
      value: "2.0"    - name: mem_usage_limit
      value: "1024"

主要增加了 -name: logtail 往下的内容,和应用配置类似,也分为两部分:

  • volumeMounts: 增加两个相同的挂载,但作为采集侧,只需要 readOnly 即可。
  • env: 通过环境变量对 logtail 进行配置,包括指定连接的 SLS endpoint、日志附带属性、自定义标识符、ALIUID 等信息,实际应用需要相应地调整这些参数。


创建应用 pod

将上面的完整配置保存为 sidecar.yaml,使用 kubectl create -f sidecar.yaml 创建应用 pod。

$for((i=0;i<4;i++)); do kubectl create -f sidecar.yaml; donepod/app-sidecar-logtail-c8gsg created
pod/app-sidecar-logtail-k74lp created
pod/app-sidecar-logtail-5fqrl created
pod/app-sidecar-logtail-764vm created
$kubectlget pods -o wide
NAME                        READY   STATUS    RESTARTS   AGE   IP          NODE                       NOMINATED NODE   READINESS GATES
app-sidecar-logtail-5fqrl   2/2     Running   0          16s   10.7.0.37   cn-hangzhou.172.16.0.171   <none>           <none>
app-sidecar-logtail-764vm   2/2     Running   0          15s   10.7.0.70   cn-hangzhou.172.16.0.172   <none>           <none>
app-sidecar-logtail-c8gsg   2/2     Running   0          16s   10.7.0.36   cn-hangzhou.172.16.0.171   <none>           <none>
app-sidecar-logtail-k74lp   2/2     Running   0          16s   10.7.0.68   cn-hangzhou.172.16.0.172   <none>           <none>

每个 node 上有两个 pod,我们可以任选一个 pod,进入 app 容器中查看数据目录的情况。

$kubectl exec -it app-sidecar-logtail-5fqrl -c app bash[root@app-sidecar-logtail-5fqrl /]# ls -al /data/total 16drwxr-xr-x 4 root root 4096 Nov  802:40 .
drwxr-xr-x 1 root root 4096 Nov  802:40 ..
drwxr-xr-x 3 root root 4096 Nov  802:40 app-sidecar-logtail-5fqrl
drwxr-xr-x 3 root root 4096 Nov  802:40 app-sidecar-logtail-c8gsg
[root@app-sidecar-logtail-5fqrl /]# tail /share/logs/app.logLog 120 to file
Log 121 to file
Log 122 to file
Log 123 to file
Log 124 to file
Log 125 to file
Log 126 to file
Log 127 to file
Log 128 to file
Log 129 to file
  • /data/ 下每个 pod 以自己的名字创建了相应的数据目录。
  • /share/logs 是每个 pod 中创建的日志目录软链接,可以从中访问到相应的文件。


采集至 SLS(控制台操作)

这里仅简单说明下配置的过程,相关概念在Kubernetes 日志查询分析实践有介绍,不清楚 SLS 采集相关概念的读者可以先参考下该文章。


创建单行文本采集配置

008i3skNgy1gw6o9t8cg3j30u0123q7c.jpeg


其中我们以 /share/logs/app.log 作为采集目标。


这里补充解释下前面没有说明的 share 挂载。在上述的过程中,每个 pod 创建的数据目录的名字都是动态的,但它们都是以相同的 sidecar.yaml 创建的,所以从逻辑上来说,它们从属于同一个应用。一般来说,针对每个应用,我们一般都希望使用一个 SLS 采集配置来实现对它的采集,无论它实际上有多少个 pod。因此,我们增加了 share 挂载以及 /share/logs 软链接,以屏蔽掉每个 pod 的动态目录。


创建机器组并应用采集配置


注意:需要创建自定义标识符机器组(和配置中的 ALIYUN_LOGTAIL_USER_DEFINED_ID 保持一致),以在逻辑上区分不同应用所产生的 sidecar logtail 实例,进而向它们下发不同的采集配置,避免冲突。


控制台查看日志

在 SLS 控制台完成配置并稍等采集配置下发至 logtail 侧后,即可在控制台查询到相应的日志(需开启索引)。


通过我们附加的 pod 属性字段(pod_name 等),可以很容易地区分出每条数据的来源。


更多

借助前述的设计,我们保障了业务数据在极端情况下不会丢失,但这个设计还需要一些额外工作来配合,包括:

  • 宿主机数据目录的定期归档:因为 pod 和数据的生命周期进行了解耦,所以在 pod 正常销毁时,相应的数据目录会残留在宿主机上,所以我们需要增加相应的巡检脚本,来定期归档这些数据。比如周期性地扫描宿主机的数据目录,当发现某 pod 目录下的文件超过一段时间不再更新,则判定其已经过期,对其进行归档(比如转存到 OSS)。
  • 监控 Pod 异常崩溃:一般来说可以借助 K8s 事件来设置告警,推荐使用 SLS 提供的 Kubernetes 事件中心
  • Logtail 自身状态的监控:主要是为了及时发现应用数据量突增、网络不稳定等情况,参考全方位 Logtail 状态监控
相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务&nbsp;ACK 容器服务&nbsp;Kubernetes&nbsp;版(简称&nbsp;ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情:&nbsp;https://www.aliyun.com/product/kubernetes
目录
相关文章
|
17天前
|
运维 Kubernetes 监控
Kubernetes 集群的持续性能优化实践
【4月更文挑战第26天】 在动态且不断增长的云计算环境中,维护高性能的 Kubernetes 集群是一个挑战。本文将探讨一系列实用的策略和工具,旨在帮助运维专家监控、分析和优化 Kubernetes 集群的性能。我们将讨论资源分配的最佳实践,包括 CPU 和内存管理,以及集群规模调整的策略。此外,文中还将介绍延迟和吞吐量的重要性,并提供日志和监控工具的使用技巧,以实现持续改进的目标。
|
22天前
|
存储 运维 Kubernetes
Kubernetes 集群的持续性能优化实践
【4月更文挑战第22天】在动态且复杂的微服务架构中,确保 Kubernetes 集群的高性能运行是至关重要的。本文将深入探讨针对 Kubernetes 集群性能优化的策略与实践,从节点资源配置、网络优化到应用部署模式等多个维度展开,旨在为运维工程师提供一套系统的性能调优方法论。通过实际案例分析与经验总结,读者可以掌握持续优化 Kubernetes 集群性能的有效手段,以适应不断变化的业务需求和技术挑战。
|
2月前
|
Kubernetes 网络协议 应用服务中间件
K8S二进制部署实践-1.15.5
K8S二进制部署实践-1.15.5
41 0
|
2月前
|
Prometheus 监控 Kubernetes
Kubernetes 集群监控与日志管理实践
【2月更文挑战第29天】 在微服务架构日益普及的当下,Kubernetes 已成为容器编排的事实标准。然而,随着集群规模的扩大和业务复杂度的提升,有效的监控和日志管理变得至关重要。本文将探讨构建高效 Kubernetes 集群监控系统的策略,以及实施日志聚合和分析的最佳实践。通过引入如 Prometheus 和 Fluentd 等开源工具,我们旨在为运维专家提供一套完整的解决方案,以保障系统的稳定性和可靠性。
|
4天前
|
消息中间件 运维 Kubernetes
构建高效自动化运维体系:Ansible与Kubernetes的融合实践
【5月更文挑战第9天】随着云计算和微服务架构的普及,自动化运维成为确保系统可靠性和效率的关键。本文将深入探讨如何通过Ansible和Kubernetes的集成,构建一个强大的自动化运维体系。我们将分析Ansible的配置管理功能以及Kubernetes容器编排的优势,并展示如何将二者结合,以实现持续部署、快速扩展和高效管理现代云原生应用。文章还将涵盖实际案例,帮助读者理解在真实环境下如何利用这些工具优化运维流程。
|
18天前
|
存储 Kubernetes 监控
Kubernetes 集群的持续性能优化实践
【4月更文挑战第25天】 在动态且不断变化的云计算环境中,维护 Kubernetes 集群的高性能是一个挑战。本文将探讨一系列实用的策略和方法,用于持续监控和优化 Kubernetes 集群的性能。通过分析真实案例,我们将展示如何识别瓶颈,采取相应的优化措施,并实现自动化以简化运维工作。这些方法将帮助读者提高其 Kubernetes 环境的稳定性和效率,同时降低运营成本。
|
28天前
|
存储 运维 Kubernetes
Kubernetes 集群的持续性能优化实践
【4月更文挑战第16天】 随着容器化技术的普及,Kubernetes 已成为管理微服务架构的首选平台。但在动态变化的负载环境中保持高性能并非易事。本文将探讨一系列实用的 Kubernetes 集群性能优化策略,旨在帮助运维工程师识别和解决潜在的性能瓶颈。通过对存储、计算资源分配、网络配置以及集群规模管理的深入分析,我们将提供一套综合的性能调优框架,以支持高效、稳定的服务运行。
|
1月前
|
Kubernetes 监控 Cloud Native
构建高效云原生应用:基于Kubernetes的微服务治理实践
【4月更文挑战第13天】 在当今数字化转型的浪潮中,企业纷纷将目光投向了云原生技术以支持其业务敏捷性和可扩展性。本文深入探讨了利用Kubernetes作为容器编排平台,实现微服务架构的有效治理,旨在为开发者和运维团队提供一套优化策略,以确保云原生应用的高性能和稳定性。通过分析微服务设计原则、Kubernetes的核心组件以及实际案例,本文揭示了在多变的业务需求下,如何确保系统的高可用性、弹性和安全性。
23 4
|
1月前
|
运维 Prometheus 监控
Kubernetes 集群的监控与日志管理实践
【4月更文挑战第8天】在微服务架构日益普及的背景下,容器化技术成为支撑快速迭代和部署的关键。其中,Kubernetes 作为容器编排的事实标准,承载着服务的稳定性和扩展性。然而,随着集群规模的扩大,如何有效监控和管理集群状态、确保服务的高可用性成为一个挑战。本文将深入探讨 Kubernetes 集群的监控和日志管理策略,从系统资源利用到服务健康检查,再到日志的收集与分析,提供一个全面的运维视角,帮助运维人员构建一个健壮、可观察的 Kubernetes 环境。
23 0
|
2月前
|
Prometheus 监控 Kubernetes
Kubernetes 集群的监控与日志管理实践
【2月更文挑战第31天】 在微服务架构日益普及的今天,容器编排工具如Kubernetes已成为部署、管理和扩展容器化应用的关键平台。然而,随着集群规模的扩大和业务复杂性的增加,如何有效监控集群状态、及时响应系统异常,以及管理海量日志信息成为了运维人员面临的重要挑战。本文将深入探讨 Kubernetes 集群监控的最佳实践和日志管理的高效策略,旨在为运维团队提供一套系统的解决思路和操作指南。
34 0