Linux下自动分割Nginx日志文件(一)-----自定义脚本和定时任务

简介:

  Nginx 是一个轻量级的 Web 服务器,体积小、性能高、速度快等诸多优点。但不足的是也存在缺点,比如其产生的访问日志文件一直就是一个,不会自动地进行切割,如果访问量很大的话,将 导致日志文件容量非常大,不便于管理。当然了,我们也不希望看到这么庞大的一个访问日志文件,那需要手动对这个文件进行切割。偶然发现如果不做切割的话,日志文件会越来越大,达到几十G,而且还影响日志的查询效率,现需要将其进行日志分割。

    在 Linux 平台上进行切割的原理:使用 date 命令以获得昨天的日期、使用 kill 命令向 Nginx 进程发送重新打开日志文件的信号,以及 crontab 设置执行任务周期。

 

1,vi /usr/local/nginx/sbin/cut_log.sh

  脚本为:

1
2
3
4
5
6
7
#!/bin/bash
#date : 2015-11-17
LOGS_PATH= /data/nginx/log
YESTERDAY=$( date  -- date  "yesterday"   + "%Y-%m-%d" )
#PID_PATH="/usr/local/nginx/logs/nginx.pid"
mv  ${LOGS_PATH} /nginx .access.log  ${LOGS_PATH} /access_nginx_ ${YESTERDAY}.log
kill  -USR1 $( cat  /usr/local/nginx/logs/nginx .pid)


代码分析:


## Nginx 日志文件所在的目录,根据个人的情况进行修改
LOGS_PATH=/data/nginx/logs
## 获取昨天的日期
YESTERDAY=$(date --date "yesterday"  +"%Y-%m-%d")
## 移动文件并命名为新的日志文件
mv ${LOGS_PATH}/nginx.access.log  ${LOGS_PATH}/access_nginx_${YESTERDAY}.log
## 向Nginx主进程发送USR1信号,USR1信号是重新打开日志文件
kill -USR1 $(cat /usr/local/nginx/nginx.pid)


##########最简单的备用常用的脚本

1
2
3
4
vim cut_nginx.sh
cd  /data/nginx/logs/access .log  &&\
mv  access.log access_$( date  +%F -d -1day).log
/usr/local/nginx/sbin/nginx  -s reload

crontab -e 

0 0 * * * /bin/bash /usr/local/nginx/sbin/cut-log.sh

1
2
3
4
5
6
7
8
9
10
11
12
####生产:
#! /bin/bash
#Power by guojinbao
date =` date  +%Y-%m-%d-%H-%M-%S`
logfile= "/guojinbao/nginx/logs/access.log"
logdir= /guojinbao/nginx/logs
pid=` cat  /usr/local/nginx/logs/nginx .pid`
if  [ ! -d $logdir ];  then
     mkdir  -p $logdir
fi
/bin/mv  $logfile $logdir /access_ ${ date }.log
kill  -HUP $pid



2,chmod +x /usr/local/nginx/sbin/cut_log.sh

wKioL1ZKwtmDFBnBAAA5bBOiUf8227.png


3,新增定时任务:

[root@zabbix sbin]# crontab -e

0 0 * * * /bin/bash /usr/local/nginx/sbin/cut-log.sh

~                                                      

定时任务是定时到每天的0点0分执行。


4,每天上班的时候就可以查看分割后的日志文件在定制的目录下下。

[root@zabbix log]# ll

total 182456

-rw-r--r--  1 nobody root     37134 Nov 17 11:27 access_nginx.log_2015-11-16.log

-rw-r--r--  1 nobody root    963804 Nov 17 14:05 nginx.access.log



以上就完成了对日志文件的切割。



本文转自 lqbyz 51CTO博客,原文链接:http://blog.51cto.com/liqingbiao/1713451

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
15天前
|
Linux Shell
Linux手动清理Linux脚本日志定时清理日志和log文件执行表达式
Linux手动清理Linux脚本日志定时清理日志和log文件执行表达式
67 1
|
25天前
|
Shell Linux C语言
【Shell 命令集合 网络通讯 】Linux 查看系统中的UUCP日志文件 uulog命令 使用指南
【Shell 命令集合 网络通讯 】Linux 查看系统中的UUCP日志文件 uulog命令 使用指南
28 0
|
24天前
|
监控 Shell Linux
【Shell 命令集合 系统管理 】Linux 自动轮转(log rotation)日志文件 logrotate命令 使用指南
【Shell 命令集合 系统管理 】Linux 自动轮转(log rotation)日志文件 logrotate命令 使用指南
45 0
|
8天前
|
存储 监控 安全
Linux系统日志
【4月更文挑战第6天】Linux系统日志,关键用于记录系统状态和事件,包括内核、系统、安全和应用日志,助力管理员诊断问题、确保系统正常运行。日志管理涉及收集、分析、备份等,常用工具如rsyslog、systemd-journal和logrotate(用于日志轮转)。重视日志文件的存储管理,防止空间占用过多。
16 1
Linux系统日志
|
1天前
|
SQL 监控 安全
Linux&Windows 日志分析 陇剑杯 CTF
Linux&Windows 日志分析 陇剑杯 CTF
6 0
|
7天前
|
Linux
Linux Crontab 查看定时任务启动没
Linux Crontab 查看定时任务启动没
13 0
Linux Crontab 查看定时任务启动没
|
12天前
|
存储 Java
用logrote和split分割nohup.out日志
用logrote和split分割nohup.out日志
|
15天前
|
运维 监控 安全
linux日志分析与追踪
在Linux中,日志分析涉及检查 `/var/log` 下的不同文件,如`messages`、`auth.log`、`kern.log`等,以及Web服务器和数据库日志。使用`tail`、`grep`、`awk`等工具实时查看和搜索日志,`logrotate`管理日志大小,`journalctl`处理Systemd日志,而`Splunk`等工具则用于集中式分析。分析技巧包括异常检测、时间关联和阈值监控。安全事件追踪结合登录失败日志、网络嗅探和IDS/IPS。日志链路追踪在分布式系统中尤为重要,帮助定位服务调用问题。有效的日志管理和分析能增强系统安全和故障排除能力。
19 7
|
24天前
|
监控 Shell Linux
【Shell 命令集合 系统管理 】Linux 实时监控日志文件 swatch命令 使用指南
【Shell 命令集合 系统管理 】Linux 实时监控日志文件 swatch命令 使用指南
33 1
|
24天前
|
存储 Shell Linux
【Shell 命令集合 系统设置 】Linux定时任务 crontab命令 使用指南
【Shell 命令集合 系统设置 】Linux定时任务 crontab命令 使用指南
32 0