Kubernetes 各组件日志清理

简介: 今天看到k8s的nodeexport pod failed,看到是磁盘空间压力过高。

今天看到k8s的nodeexport pod failed,看到是磁盘空间压力过高。

k8s各组件的日志


kubernetes 二进制安装,各组件的log目录在/var/log/kubernetes中,其中各组件的日志均是一个软链接,指向当前的日志目录。当日志超过3.6GB,k8s会自动重新指向最新的log。

23b32ef11f004e598805d6f48f4afe42.png

如何优雅的清理呢这些日志呢?


find /var/log/kubernetes/ -type f -mtime +6 |xargs -I GG "echo rm -rf GG" |bash


看似解决了问题,其实并没有。把软链接的指向文件删除了。

35b63f4f0af7429baa132ac296b69aaa.png

这些日志确实是6天之前的(不算今天)。但是被软链接指向了,如果删除了组件写日志就会报错。


如何解决呢?

#!/bin/bash
#==============================================================#
# File      :   stop-etl
# Ctime     :   2022年8月10日13:12:22
# Mtime     :   2022年8月10日13:12:27
# Usage     :   clean k8s log 
# author    :   ninesun
#==============================================================#
rm -rf >/tmp/no_clean_log.log
for log in `ll /var/log/kubernetes | grep lrw |awk '{print $9}'`;do
  no_clean_log=`stat ${log} | awk 'NR==1'|awk '{print $4}' | tr -d "‘"`
  echo ${no_clean_log} >> /tmp/no_clean_log.log
done
no_clean_log_foramt=`sed -r ':a;N;s/\n/|/;ba;' /tmp/no_clean_log.log`
find /var/log/kubernetes/ -type f -mtime +6|grep -Ev ${no_clean_log_foramt}| xargs -I GG echo "rm -rf GG" |bash

这个脚本在调试的过程中发现find 中使用grep 一个变量好像不生效,但是打印出整个find命令执行起来是没有问题的,各位大佬如果知晓什么原因麻烦告知我一下。


原因:


事实上这种方法是没有问题的,find搭配grep也是没有问题的。是自己对管道的理解不深刻,find出来的结果集应该使用变量记录后者echo 出来,再经过格式化进行grep是完全没有问题的。例如


-- update 2022年9月7日17:52:08


换了一种思路去删除其实和第一种没啥本质的区别

#!/bin/bash
#==============================================================#
# File      :   stop-etl
# Ctime     :   2022年8月10日13:12:22
# Mtime     :   2022年9月7日17:52:27
# Usage     :   clean k8s log 
# author    :   ninesun
#==============================================================#
rm -rf >/tmp/no_clean_log.log
for log in `ls -l /var/log/kubernetes | grep lrw |awk '{print $9}'`;do
  #no_clean_log=`stat /var/log/kubernetes/${log} | awk 'NR==1'|awk '{print $4}' | tr -d "‘"`
  no_clean_log=`readlink /var/log/kubernetes/${log}`
  echo ${no_clean_log} >> /tmp/no_clean_log.log
done
no_clean_log_foramt=`sed -r ':a;N;s/\n/|/;ba;' /tmp/no_clean_log.log`
find_list=`find /var/log/kubernetes/ -type f -mtime +1 -print`
echo ${find_list} |tr ' ' '\n'| egrep -v ${no_clean_log_foramt} | xargs -I GG echo "rm -rf GG"

--update 2022年9月7日17:55:21


事实上第一种方法是没有问题的,find搭配grep也是没有问题的。是自己对管道的理解不深刻,find出来的结果集应该使用变量记录后者echo 出来,再经过格式化进行grep是完全没有问题的。例如

echo `find /var/log/kubernetes/ -type f -mtime +1` |tr ' ' '\n'  |grep -Ev ${no_clean_log_foramt}
#!/bin/bash
#==============================================================#
# File      :   stop-etl
# Ctime     :   2022年8月10日13:12:22
# Mtime     :   2022年9月7日17:57:32
# Usage     :   clean k8s log 
# author    :   ninesun
#==============================================================#
rm -rf >/tmp/no_clean_log.log
for log in `ls -l /var/log/kubernetes | grep lrw |awk '{print $9}'`;do
  no_clean_log=`stat /var/log/kubernetes/${log} | awk 'NR==1'|awk '{print $4}' | tr -d "‘"`
  echo ${no_clean_log} >> /tmp/no_clean_log.log
done
no_clean_log_foramt=`sed -r ':a;N;s/\n/|/;ba;' /tmp/no_clean_log.log`
echo `find /var/log/kubernetes/ -type f -mtime +1` | tr ' ' '\n'|grep -Ev ${no_clean_log_foramt}| xargs -I GG echo "rm -rf GG"
#echo `find /var/log/kubernetes/ -type f -mtime +1` | sed 's/ /\n/g '|grep -Ev ${no_clean_log_foramt}| xargs -I GG echo "rm -rf GG"

find找出来的文件默认是换行分割,经过命令替换之后变成了空格,可以使用tr 替换。


也可使用sed全局替换 sed 's/ /\n/g'

docker container的日志


在每个可调度的节点上执行查看占用比较大的容器日志。

for name in $(docker ps -a  | awk '{print $1}' | grep -v CONTAINER); do docker inspect $name | grep LogPath | awk '{print $NF}' | tr -d '",' |xargs du -sh;done |sort -nr

NF 列的个数(默认以空格分隔)

crontab定时删除


d38d59622ea84bfea641cecc36f2a684.png

[root@master1 /tmp]#ansible k8s-all -m shell -a 'df -h /'
[WARNING]: Invalid characters were found in group names but not replaced, use -vvvv to see details
[WARNING]: Found both group and host with same name: master1
master1 | CHANGED | rc=0 >>
Filesystem      Size  Used Avail Use% Mounted on
/dev/sda1        40G   23G   18G  56% /
node2 | CHANGED | rc=0 >>
Filesystem      Size  Used Avail Use% Mounted on
/dev/sda1        40G   14G   27G  35% /
master3 | CHANGED | rc=0 >>
Filesystem      Size  Used Avail Use% Mounted on
/dev/sda1        40G   16G   25G  39% /
node1 | CHANGED | rc=0 >>
Filesystem      Size  Used Avail Use% Mounted on
/dev/sda1        40G   14G   27G  35% /
master2 | CHANGED | rc=0 >>
Filesystem      Size  Used Avail Use% Mounted on
/dev/sda1        40G   13G   28G  32% /
node3 | CHANGED | rc=0 >>
Filesystem      Size  Used Avail Use% Mounted on
/dev/sda1        40G   13G   28G  32% /

监控


prometheus 监控node节点的每个指标

de944dd04b9d4b9b983cfdc90120ece1.png

相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
目录
相关文章
|
1月前
|
Kubernetes Perl 容器
K8s查看集群 状态事件描述以及Pod日志信息
K8s查看集群 状态事件描述以及Pod日志信息
49 3
|
1月前
|
Linux Shell
Linux手动清理Linux脚本日志定时清理日志和log文件执行表达式
Linux手动清理Linux脚本日志定时清理日志和log文件执行表达式
243 1
|
2月前
|
Prometheus 监控 Kubernetes
Kubernetes 集群监控与日志管理实践
【2月更文挑战第29天】 在微服务架构日益普及的当下,Kubernetes 已成为容器编排的事实标准。然而,随着集群规模的扩大和业务复杂度的提升,有效的监控和日志管理变得至关重要。本文将探讨构建高效 Kubernetes 集群监控系统的策略,以及实施日志聚合和分析的最佳实践。通过引入如 Prometheus 和 Fluentd 等开源工具,我们旨在为运维专家提供一套完整的解决方案,以保障系统的稳定性和可靠性。
|
3天前
|
存储 数据采集 Kubernetes
一文详解K8s环境下Job类日志采集方案
本文介绍了K8s中Job和Cronjob控制器用于非常驻容器编排的场景,以及Job容器的特点:增删频率高、生命周期短和突发并发大。文章重点讨论了Job日志采集的关键考虑点,包括容器发现速度、开始采集延时和弹性支持,并对比了5种采集方案:DaemonSet采集、Sidecar采集、ECI采集、同容器采集和独立存储采集。对于短生命周期Job,建议使用Sidecar或ECI采集,通过调整参数确保数据完整性。对于突发大量Job,需要关注服务端资源限制和采集容器的资源调整。文章总结了不同场景下的推荐采集方案,并指出iLogtail和SLS未来可能的优化方向。
|
1天前
|
XML SQL 运维
关于日志的清理
关于日志的清理
|
1天前
|
Kubernetes Java API
Kubernetes详解(三)——Kubernetes集群组件
Kubernetes详解(三)——Kubernetes集群组件
10 1
|
10天前
|
Prometheus 监控 Kubernetes
Kubernetes 集群的监控与日志管理策略
【4月更文挑战第30天】 在微服务架构日益普及的当下,容器化技术与编排工具如Kubernetes成为了运维领域的重要话题。有效的监控和日志管理对于保障系统的高可用性和故障快速定位至关重要。本文将探讨在Kubernetes环境中实施监控和日志管理的最佳实践,包括选用合适的工具、部署策略以及如何整合这些工具来提供端到端的可见性。我们将重点讨论Prometheus监控解决方案和EFK(Elasticsearch, Fluentd, Kibana)日志管理堆栈,分析其在Kubernetes集群中的应用,并给出优化建议。
|
11天前
|
弹性计算 运维 Shell
清理日志文件
【4月更文挑战第29天】
13 1
|
26天前
|
消息中间件 存储 Kafka
【Kafka】Kafka 的日志保留期与数据清理策略
【4月更文挑战第13天】【Kafka】Kafka 的日志保留期与数据清理策略
|
27天前
|
JSON Kubernetes 网络架构
Kubernetes CNI 网络模型及常见开源组件
【4月更文挑战第13天】目前主流的容器网络模型是CoreOS 公司推出的 Container Network Interface(CNI)模型