开发者社区> 问答> 正文

网站日志太大,如何切割日志?

因为安了关系型数据库 RDS,所以mysql日志不用维护,但是网站日志几天就七八百M,速度巨慢,必须删了之后重启服务器,比价麻烦。

有没有阿里云linux nginx网站日志的切割教程,希望傻瓜点的,求指导一下。

日志路径是:/alidata/log/nginx/access

展开
收起
plcsq 2013-03-20 22:49:04 10041 0
5 条回答
写回答
取消 提交回答
  • Re网站日志太大,如何切割日志?
    楼主,去我签名里面的博客,里面刚好更新了一篇关于nginx切割日志的博文,我自己测试过了,没问题
    2013-03-21 09:10:41
    赞同 展开评论 打赏
  • Re网站日志太大,如何切割日志?
           楼上都是大牛啊
    2013-03-20 23:49:06
    赞同 展开评论 打赏
  • blog.s135.com,张宴那也有自动脚本,每天按时间段和日期,切割日志。
    2013-03-20 23:18:08
    赞同 展开评论 打赏
  • Re网站日志太大,如何切割日志?
    最好阿里云出个自动清理日志的脚本,这让我们到处找,真不方便。
    2013-03-20 23:10:13
    赞同 展开评论 打赏
  • 你去vpser论坛搜一下 有个自动清理脚本 我就用的那个定期清理的
    2013-03-20 23:03:05
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
PostgresChina2018_赖思超_PostgreSQL10_hash索引的WAL日志修改版final 立即下载
Kubernetes下日志实时采集、存储与计算实践 立即下载
日志数据采集与分析对接 立即下载