使用webalizer分析nginx 访问日志

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介:

webalizer是一个高效的、免费的web服务器日志分析程序。其分析结果以HTML文件格式保存,从而可以很方便的通过web服务器进 行浏览。Internet上的很多站点都使用webalizer进行web服务器日志分析。Webalizer具有以下一些特性:

1. 为是用C写的程序,所以其具有很高的运行效率。在主频为200Mhz的机器上,webalizer每秒钟可以分析10000条记录,所以分析一个40M大小的日志文件只需要15秒。

2. webalizer支持标准的一般日志文件格式(Common Logfile Format);除此之外,也支持几种组合日志格式(Combined Logfile Format)的变种,从而可以统计客户情况以及客户操作系统类型。并且现在webalizer已经可以支持wu-ftpd xferlog日志格式以及squid日志文件格式了。

3. 支持命令行配置以及配置文件。

4. 可以支持多种语言,也可以自己进行本地化工作。

5. 支持多种平台,比如UNIX、linux、NT, OS/2 和 MacOS等。

下载地址:

ftp://ftp.mrunix.net/pub/webalizer/webalizer-2.23-05-src.tgz

[root@Www.wangyuelou.org webalizer-2.23-05]# tar xf webalizer-2.23-05-src.tgz

[root@Www.wangyuelou.org webalizer-2.23-05]# ./configure --with-language=chinese

[root@Www.wangyuelou.org webalizer-2.23-05]# make

6.编译成功后,会产生一个webalizer可执行文件,可以将其拷贝到/usr/sbin/目录下:

[root@Www.wangyuelou.org webalizer-2.23-05]# ls -l weba*

-rwxr-xr-x 1 root root 167563 May 20 15:16 webalizer

[root@Www.wangyuelou.org webalizer-2.23-05]# cp webalizer /usr/bin/

弄完之后就可以配置webalizer了.

配置:

上面说过,可以通过命令行配置webalizer,也可以通过配置文件进行配置,在本文中我们将介绍使用命令行参数进行配置,需要了解配置文件使用方法的朋友可以参考README文件,里面有很详细的介绍。

可以执行webalizer –h得到所有命令行参数:

[root@Www.wangyuelou.org webalizer-2.23-05]# webalizer -h

Usage: webalizer [options] [log file]

-h = print this help message

-V = print version information

-v = be verbose

-d = print additional debug info

-F type = Log type. type= (clf | ftp | squid | w3c)

-f = Fold sequence errors

-i = ignore history file

-p = preserve state (incremental)

-b = ignore state (incremental)

-q = supress informational messages

-Q = supress _ALL_ messages

-Y = supress country graph

-G = supress hourly graph

-H = supress hourly stats

-L = supress color coded graph legends

-l num = use num background lines on graph

-m num = Visit timout value (seconds)

-T = print timing information

-c file = use configuration file 'file'

-n name = hostname to use

-o dir = output directory to use

-t name = report title 'name'

-a name = hide user agent 'name'

-r name = hide referrer 'name'

-s name = hide site 'name'

-u name = hide URL 'name'

-x name = Use filename extension 'name'

-O name = Omit page 'name'

-P name = Page type extension 'name'

-I name = Index alias 'name'

-K num = num months in summary table

-k num = num months in summary graph

-A num = Display num top agents

-C num = Display num top countries

-R num = Display num top referrers

-S num = Display num top sites

-U num = Display num top URLs

-e num = Display num top Entry Pages

-E num = Display num top Exit Pages

-g num = Group Domains to 'num' levels

-X = Hide individual sites

-z dir = Use country flags in 'dir'

假设,web服务器的主机名www.wangyuelou.org,统计站点为op.wangyuelou.org,访问日志为/app/log/wangyuelou.access.log.我们将分析结果输入到/home/wwwroot/log(统计站点的根目录)下面.我们可以建立如下脚本.

#!/usr/bin

run=/usr/sbin/webalizer

$run -F clf -p -n '' -t 'www.wangyuelou.org' -o /home/wwwroot/log /app/log/wangyuelou.access.log

-F clf 指明我们的web日志格式为标准的一般日志文件格式(Common Logfile Format)

-p 指定使用递增模式,这就是说每作一次分析后,webalizer会生产一个历史文件,这样下一次分析时就可以不分析已经处理过的部分。这样我们就可以在短时间内转换我们的日志文件,而不用担心访问量太大时日志文件无限增大了。

-n “ “ 指定服务器主机名为空,这样输出结果会美观一些。

-t “www.test.com” 指定输出结果标题。

-o 指定输出目录

/var/log/httpd/access_log:指定日志文件

测试

[root@www log]# $run -F clf -p -n '' -t 'www.wangyuelou.org' -o /home/wwwroot/log /app/log/Noname1.txt

Webalizer V2.23-05 (Linux 2.6.18-238.9.1.el5xen x86_64) English

Using logfile /app/log/Noname1.txt (clf)

Creating output in /home/wwwroot/log

History file not found...

Previous run data not found...

Saving current run data... [04/07/2011 11:01:08]

Generating report for April 2011

Saving history information...

Generating summary report

42 records in 1 seconds, 42/sec

分析的是nginx的日志,可能会因为nginx的设置多了一个空格 而不能分析出来.这点需要仔细排查.

clip_image002



     本文转自 珏石头 51CTO博客,原文链接:http://blog.51cto.com/gavinshaw/569820,如需转载请自行联系原作者




相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
10天前
|
存储 SQL 监控
|
10天前
|
运维 监控 安全
|
11天前
|
Web App开发 算法 应用服务中间件
nginx开启局域网https访问
【10月更文挑战第22天】为了调试WebRTC功能,需要在局域网内搭建HTTPS协议。具体步骤包括:在已部署Nginx和安装OpenSSL的环境中生成私钥、证书签名请求和自签名证书;将生成的文件放置到Nginx的证书目录并修改Nginx配置文件,最后重启Nginx服务。注意,自签名证书不受第三方机构认可,如需正式使用,需向CA申请签名。
|
13天前
|
监控 关系型数据库 MySQL
分析慢查询日志
【10月更文挑战第29天】分析慢查询日志
32 3
|
13天前
|
监控 关系型数据库 数据库
怎样分析慢查询日志?
【10月更文挑战第29天】怎样分析慢查询日志?
31 2
|
1月前
|
存储 缓存 关系型数据库
MySQL事务日志-Redo Log工作原理分析
事务的隔离性和原子性分别通过锁和事务日志实现,而持久性则依赖于事务日志中的`Redo Log`。在MySQL中,`Redo Log`确保已提交事务的数据能持久保存,即使系统崩溃也能通过重做日志恢复数据。其工作原理是记录数据在内存中的更改,待事务提交时写入磁盘。此外,`Redo Log`采用简单的物理日志格式和高效的顺序IO,确保快速提交。通过不同的落盘策略,可在性能和安全性之间做出权衡。
1623 14
|
1月前
|
存储 消息中间件 大数据
大数据-69 Kafka 高级特性 物理存储 实机查看分析 日志存储一篇详解
大数据-69 Kafka 高级特性 物理存储 实机查看分析 日志存储一篇详解
35 4
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
43 2
|
1月前
|
应用服务中间件 Shell PHP
windows系统配置nginx环境运行pbootcms访问首页直接404的问题
windows系统配置nginx环境运行pbootcms访问首页直接404的问题
|
2月前
|
缓存 监控 算法
分析慢日志文件来优化 PHP 脚本的性能
分析慢日志文件来优化 PHP 脚本的性能