Linux下自动分割Nginx日志文件(一)-----自定义脚本和定时任务

简介:

  Nginx 是一个轻量级的 Web 服务器,体积小、性能高、速度快等诸多优点。但不足的是也存在缺点,比如其产生的访问日志文件一直就是一个,不会自动地进行切割,如果访问量很大的话,将 导致日志文件容量非常大,不便于管理。当然了,我们也不希望看到这么庞大的一个访问日志文件,那需要手动对这个文件进行切割。偶然发现如果不做切割的话,日志文件会越来越大,达到几十G,而且还影响日志的查询效率,现需要将其进行日志分割。

    在 Linux 平台上进行切割的原理:使用 date 命令以获得昨天的日期、使用 kill 命令向 Nginx 进程发送重新打开日志文件的信号,以及 crontab 设置执行任务周期。

 

1,vi /usr/local/nginx/sbin/cut_log.sh

  脚本为:

1
2
3
4
5
6
7
#!/bin/bash
#date : 2015-11-17
LOGS_PATH= /data/nginx/log
YESTERDAY=$( date  -- date  "yesterday"   + "%Y-%m-%d" )
#PID_PATH="/usr/local/nginx/logs/nginx.pid"
mv  ${LOGS_PATH} /nginx .access.log  ${LOGS_PATH} /access_nginx_ ${YESTERDAY}.log
kill  -USR1 $( cat  /usr/local/nginx/logs/nginx .pid)


代码分析:


## Nginx 日志文件所在的目录,根据个人的情况进行修改
LOGS_PATH=/data/nginx/logs
## 获取昨天的日期
YESTERDAY=$(date --date "yesterday"  +"%Y-%m-%d")
## 移动文件并命名为新的日志文件
mv ${LOGS_PATH}/nginx.access.log  ${LOGS_PATH}/access_nginx_${YESTERDAY}.log
## 向Nginx主进程发送USR1信号,USR1信号是重新打开日志文件
kill -USR1 $(cat /usr/local/nginx/nginx.pid)


##########最简单的备用常用的脚本

1
2
3
4
vim cut_nginx.sh
cd  /data/nginx/logs/access .log  &&\
mv  access.log access_$( date  +%F -d -1day).log
/usr/local/nginx/sbin/nginx  -s reload

crontab -e 

0 0 * * * /bin/bash /usr/local/nginx/sbin/cut-log.sh

1
2
3
4
5
6
7
8
9
10
11
12
####生产:
#! /bin/bash
#Power by guojinbao
date =` date  +%Y-%m-%d-%H-%M-%S`
logfile= "/guojinbao/nginx/logs/access.log"
logdir= /guojinbao/nginx/logs
pid=` cat  /usr/local/nginx/logs/nginx .pid`
if  [ ! -d $logdir ];  then
     mkdir  -p $logdir
fi
/bin/mv  $logfile $logdir /access_ ${ date }.log
kill  -HUP $pid



2,chmod +x /usr/local/nginx/sbin/cut_log.sh

wKioL1ZKwtmDFBnBAAA5bBOiUf8227.png


3,新增定时任务:

[root@zabbix sbin]# crontab -e

0 0 * * * /bin/bash /usr/local/nginx/sbin/cut-log.sh

~                                                      

定时任务是定时到每天的0点0分执行。


4,每天上班的时候就可以查看分割后的日志文件在定制的目录下下。

[root@zabbix log]# ll

total 182456

-rw-r--r--  1 nobody root     37134 Nov 17 11:27 access_nginx.log_2015-11-16.log

-rw-r--r--  1 nobody root    963804 Nov 17 14:05 nginx.access.log



以上就完成了对日志文件的切割。



本文转自 lqbyz 51CTO博客,原文链接:http://blog.51cto.com/liqingbiao/1713451

相关实践学习
通过日志服务实现云资源OSS的安全审计
本实验介绍如何通过日志服务实现云资源OSS的安全审计。
相关文章
|
Ubuntu Linux 网络安全
Linux系统初始化脚本
一款支持Rocky、CentOS、Ubuntu、Debian、openEuler等主流Linux发行版的系统初始化Shell脚本,涵盖网络配置、主机名设置、镜像源更换、安全加固等多项功能,适配单/双网卡环境,支持UEFI引导,提供多版本下载与持续更新。
599 3
Linux系统初始化脚本
|
5月前
|
存储 安全 Unix
七、Linux Shell 与脚本基础
别再一遍遍地敲重复的命令了,把它们写进Shell脚本,就能一键搞定。脚本本质上就是个存着一堆命令的文本文件,但要让它“活”起来,有几个关键点:文件开头最好用#!/usr/bin/env bash来指定解释器,并用chmod +x给它执行权限。执行时也有讲究:./script.sh是在一个新“房间”(子Shell)里跑,不影响你;而source script.sh是在当前“房间”里跑,适合用来加载环境变量和配置文件。
545 9
|
5月前
|
存储 Shell Linux
八、Linux Shell 脚本:变量与字符串
Shell脚本里的变量就像一个个贴着标签的“箱子”。装东西(赋值)时,=两边千万不能有空格。用单引号''装进去的东西会原封不动,用双引号""则会让里面的$变量先“变身”再装箱。默认箱子只能在当前“房间”(Shell进程)用,想让隔壁房间(子进程)也能看到,就得给箱子盖个export的“出口”戳。此外,Shell还自带了$?(上条命令的成绩单)和$1(别人递进来的第一个包裹)等许多特殊箱子,非常有用。
536 2
|
7月前
|
Web App开发 缓存 安全
Linux一键清理系统垃圾:释放30GB空间的Shell脚本实战​
这篇博客介绍了一个实用的Linux系统盘清理脚本,主要功能包括: 安全权限检查和旧内核清理,保留当前使用内核 7天以上日志文件清理和系统日志压缩 浏览器缓存(Chrome/Firefox)、APT缓存、临时文件清理 智能清理Snap旧版本和Docker无用数据 提供磁盘空间使用前后对比和大文件查找功能 脚本采用交互式设计确保安全性,适合定期维护开发环境、服务器和个人电脑。文章详细解析了脚本的关键功能代码,并给出了使用建议。完整脚本已开源,用户可根据需求自定义调整清理策略。
920 1
|
9月前
|
Java Linux
自定义linux脚本用于快速jar包启动、停止、重启
自定义linux脚本用于快速jar包启动、停止、重启
385 29
|
7月前
|
监控 Linux 应用服务中间件
linux查看日志文件tail -f用法
在 Linux 中,查看和监控日志文件是系统管理员和开发者常用的操作之一。tail 命令就是用来查看文件内容的,它默认显示文件的最后部分。tail -f 是 tail 命令的一个非常有用的选项,用于实时查看和跟踪日志文件的更新,尤其是在监控运行中的服务时非常有用。
971 0
|
9月前
|
应用服务中间件 Linux 网络安全
Centos 8.0中Nginx配置文件和https正书添加配置
这是一份Nginx配置文件,包含HTTP与HTTPS服务设置。主要功能如下:1) 将HTTP(80端口)请求重定向至HTTPS(443端口),增强安全性;2) 配置SSL证书,支持TLSv1.1至TLSv1.3协议;3) 使用uWSGI与后端应用通信(如Django);4) 静态文件托管路径设为`/root/code/static/`;5) 定制错误页面(404、50x)。适用于Web应用部署场景。
903 87
|
5月前
|
编解码 应用服务中间件 Linux
centos配置nginx-rtmp实现ffmpeg转码rtsp为rtmp视频流
centos配置nginx-rtmp实现ffmpeg转码rtsp为rtmp视频流
543 1
|
9月前
|
负载均衡 应用服务中间件 nginx
Nginx配置与命令
Nginx 是一款高性能的 HTTP 和反向代理服务器,其配置文件灵活且功能强大。本文介绍了 Nginx 配置的基础结构和常用指令,包括全局块、Events 块、HTTP 块及 Server 块的配置方法,以及静态资源服务、反向代理、负载均衡、HTTPS 和 URL 重写等功能实现。此外,还提供了常用的 Nginx 命令操作,如启动、停止、重载配置和日志管理等,帮助用户高效管理和优化服务器性能。