awstats分析WEB网站安装

简介:

 

1、到以下网站下载awstats和cronolog安装包:

http://sourceforge.net/projects/awstats/

2、解压和安装文件

1)tar xzvf awstats-version.tgz 如下:

data docs README.TXT tools wwwroot

(1)默认安装方法

进入tools目录运行awstats_configure.pl文件:

perl awstats_configure.pl

按提示对awstats进行设置

主要包括:发布的目录、配置文件存放的目录和其他信息的指定,一般采用默认设置即可

(2)直接编辑apache的httpd.conf文件添加如下内容:

#

# Directives to allow use of AWStats as a CGI

#

Alias /awstatsclasses "/usr/local/awstats/wwwroot/classes/"

Alias /awstatscss "/usr/local/awstats/wwwroot/css/"

Alias /awstatsicons "/usr/local/awstats/wwwroot/icon/"

ScriptAlias /awstats/ "/usr/local/awstats/wwwroot/cgi-bin/"

#

# This is to permit URL access to scripts/files in AWStats directory.

#

#<Directory "/usr/local/awstats/wwwroot">

# Options None

# AllowOverride None

# Order allow,deny

# Allow from all

#</Directory>

<VirtualHost 192.168.2.252>

RewriteEngine On

RewriteCond %{REQUEST_METHOD} ^TRACE

RewriteRule .* - [F]

DocumentRoot "/usr/local/awstats/docs/"

ErrorLog /var/log/httpd/erro_awstat.log

CustomLog "|/usr/local/sbin/cronolog /var/log/httpd/access_awstat.%Y%m%d" combined

<Directory "/usr/local/awstats/wwwroot">

Options Includes FollowSymLinks

AllowOverride All

Order allow,deny

Allow from all

</Directory>

</VirtualHost>

2)tar xzvf cronolog-1.6.2.tar.gz

cd cronolog-1.6.2

configure

make

make install

安装完成将在/usr/local/sbin目录下生成以下两个文件:

cronolog cronosplit

3、修改apache的httpd.conf文件

设置生成log的文件名:

CustomLog "|/usr/local/sbin/cronolog /var/log/httpd/access_awstat.%Y%m%d" combined

4、编辑配置文件

默认是在/etc/awstats目录下的文件,awstats+域名+conf

例如:awstats.www.jxwpx.com.conf

可以在awstats.www.jxwpx.com.conf指定域名、log文件

SiteDomain="www.jxwpx.com"

LogFile="/var/log/httpd/access_awstat.%YYYY-0%MM-0%DD-0"

5、生成数据

进入../awstats/wwwroot/cgi-bin/目录里执行如下语句:

./awstats.pl -update -config=www.jxwpx.com #www.jxwpx.com是我们的域名

6、查看成果

http://192.168.2.252/awstats/awstats.pl?config=www.jxwpx.com









本文转自 jxwpx 51CTO博客,原文链接:http://blog.51cto.com/jxwpx/293171,如需转载请自行联系原作者
目录
相关文章
|
1月前
|
数据采集 数据挖掘 Python
使用Python构建简单的Web爬虫:实现网页内容抓取与分析
本文将介绍如何使用Python编写一个简单的Web爬虫,实现对特定网页内容的抓取与分析。通过学习本文,读者将了解到如何利用Python的requests和Beautiful Soup库来获取网页内容,并通过示例演示如何解析HTML结构,提取所需信息。此外,我们还将讨论一些常见的爬虫挑战以及如何避免被网站封禁的策略。
|
2月前
|
网络协议 Shell 网络安全
实验目的1.编译安装httpd2.优化路径3.并将鲜花网站上传到web服务器为网页目录4.在客户机访问网站http://www.bdqn.com
实验目的1.编译安装httpd2.优化路径3.并将鲜花网站上传到web服务器为网页目录4.在客户机访问网站http://www.bdqn.com
167 0
|
2天前
|
网络协议 关系型数据库 Linux
使用PHPStudy搭建本地web网站并实现任意浏览器公网访问
使用PHPStudy搭建本地web网站并实现任意浏览器公网访问
8 0
|
3天前
|
应用服务中间件 nginx
如何在树莓派部署Nginx并实现无公网ip远程访问内网制作的web网站
如何在树莓派部署Nginx并实现无公网ip远程访问内网制作的web网站
7 0
|
4天前
|
安全 网络安全 数据库
01-Web 网络安全纵观与前景分析
01-Web 网络安全纵观与前景分析
|
11天前
|
机器学习/深度学习 前端开发 数据可视化
数据分析web可视化神器---streamlit框架,无需懂前端也能搭建出精美的web网站页面
数据分析web可视化神器---streamlit框架,无需懂前端也能搭建出精美的web网站页面
|
12天前
|
存储 Serverless 网络安全
Serverless 应用引擎产品使用之阿里云函数计算中的Web云函数可以抵抗网站对DDoS攻击如何解决
阿里云Serverless 应用引擎(SAE)提供了完整的微服务应用生命周期管理能力,包括应用部署、服务治理、开发运维、资源管理等功能,并通过扩展功能支持多环境管理、API Gateway、事件驱动等高级应用场景,帮助企业快速构建、部署、运维和扩展微服务架构,实现Serverless化的应用部署与运维模式。以下是对SAE产品使用合集的概述,包括应用管理、服务治理、开发运维、资源管理等方面。
20 0
|
23天前
|
Python 数据可视化 索引
PYTHON用GARCH、离散随机波动率模型DSV模拟估计股票收益时间序列与蒙特卡洛可视化
PYTHON用GARCH、离散随机波动率模型DSV模拟估计股票收益时间序列与蒙特卡洛可视化
PYTHON用GARCH、离散随机波动率模型DSV模拟估计股票收益时间序列与蒙特卡洛可视化
|
23天前
|
机器学习/深度学习 算法 数据可视化
用SPSS Modeler的Web复杂网络对所有腧穴进行关联规则分析3
用SPSS Modeler的Web复杂网络对所有腧穴进行关联规则分析3
用SPSS Modeler的Web复杂网络对所有腧穴进行关联规则分析3
|
23天前
|
数据挖掘
用SPSS Modeler的Web复杂网络对所有腧穴进行关联规则分析
用SPSS Modeler的Web复杂网络对所有腧穴进行关联规则分析