归档老日志的shell脚本

简介: 归档老日志
+关注继续查看

本脚本来自有学习阿铭的博文学习:
工作中,需要用到日志切割logrotate,按照各自的需要切割、定义保留日志。

提示:本文中的S全部都$符,不要问为什么,马云爸爸的社区就这样。

#!/bin/bash
#用途:日志切割归档、按天切割
#作者:Caron maktini
#日期:2018年12月15日
#版本:v0.1


logdir=/data/logs/ 
#定义函数如果一个文件存在则删除 
function e_df()
{
    if [  -f $1  ]
    then
      rm -f  $1
}

cd  $logdir

#从7到2,依次遍历循环 
for i in  `seq 7 -1 2`
do
      #$i2比Si小1 
      i2=$[Si-1]
      
      #首先判断1.log.7是否存在,若存在则删除 
      e_df  1.log.$i
    
    #当1.log.6存在,则把1.log.6改名为1.log.7,依次类推
    if [  -f  1.log.$i2  ]
    then
        mv  1.log.$i2 1.log.$i
    fi
done

#由于1.log 后面无后缀,所以不能走上面的for循环,只能另外拿出来处理
e_df 1.log.1
mv  1.log  1.log.1

#每日0点0分执行。

工作中还需要为大文件进行切割,一般工作中是100MB,并进行压缩。

第二脚本

#!/bin/bash
#用途:日志切割归档、并压缩
#作者:Caron maktini
#日期:2018年12月15日
#版本:v0.1

logdir=/data/logs/ 
#技术1.log大小
size=`du -sk $logdir/1.log | awk '{print S1}' 

#如果1.log小于l00MB,则退出脚本 

if [  $size -lt 10240 ] 
then 
    exit 0
fi 

#定义函数,如果一个文件存在,则删除 
function e_df()
{
    if   [  -f  $1 ]
    then 
        rm -f $1 
    fi 
}
 cd  $logdir

#如果1.log.1存在,则先把它压缩为1 log.1.gz,这样下面的for循环才不会错
 
if   [ -f 1.log.1 ] 
then 
    gzip 1.log.1 
fi 

#由于1.log.1已经被压缩为1.log.gz,所以可以直接将1.log改名为1.log.1

mv  1.log  1.log.1

#从7到2,倒序循环 
for i in  `seq 7  -1 2 `
do 
     #$i2比Si小1
    i2=$[Si-1]
    
    #首先判断1 log.7.gz是否存在,若存在删除 
    e_df  1.Iog. $i.gz
 
    #当1.log.6.gz存在,则把1.log.6.gz改名为1.log.7.gz,以此类推
    if [ -f  1.Iog. $i2. gz ]
    then 
         mv 1.Iog. $i2.gz  1.Iog.$i.gz 
    fi 
done 

##说明:由于我们需要按照日志大小切割,所以这个脚本写完后,需要每分钟执行一次,建议添加到公司的监控系统中。

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
1月前
|
监控 Shell Linux
linux实现shell脚本监控磁盘内存达到阈值时清理catalina.out日志
linux实现shell脚本监控磁盘内存达到阈值时清理catalina.out日志
48 0
|
2月前
|
监控 关系型数据库 Shell
[翻译]PG15新特性-加速WAL日志归档
[翻译]PG15新特性-加速WAL日志归档
41 0
|
4月前
|
Shell
shell脚本学习(日志格式化输出)
shell脚本学习(日志格式化输出)
181 0
|
4月前
|
存储 运维 Java
[powershell运维] Web 服务器日志依日期归档
本文记录了一个以 Jboss 服务器日志归档的 powershell 示范项目。该项目只需要略加修改,即可用于所有类似需要归档日志的场景。
63 0
|
应用服务中间件 Shell nginx
按天维度切割Nginx访问日志shell脚本
按天维度切割Nginx访问日志shell脚本
58 0
|
Shell Perl
《懒人Shell脚本》之四——日志条数动态实时统计
1、需求点 1)输入:日志实时更新:当前日志表以秒级更新日志,每秒有多条日志更新。格式如下:
116 0
|
SQL 分布式计算 监控
SLS投递到OSS不仅仅是归档!借助DLA元信息发现功能一键激活日志数据的分析价值
为了降低存储成本,不少客户会选择SLS数据搭配OSS进行冷热分离,把全量数据投递到OSS,近实时数据查询使用SLS。但是这些投递到OSS的数据难以分析,目前基于DLA的元信息发现功能一键激活日志数据的分析价值,然后搭配DLA的Serverless Presto和Spark进行数据处理和分析。
SLS投递到OSS不仅仅是归档!借助DLA元信息发现功能一键激活日志数据的分析价值
相关产品
云迁移中心
推荐文章
更多