Linux配置手册(六)Apache 服务的部属与配置

简介:

安装httpd服务 httpd服务基于dns解析,实验环境:dns功能

1. 解压缩

a) Tar zxvf httpd-2.2.9.tar.gz –C /usr/src

b) Cd /user/src/httpd-2.2.9

2. 配置编译选项

a) ./configure –prefix=/usr/local/apache2 - -enable-so - -enable-rewrite

b) - -enble-so 加载动态模块功能

c) - -enble-rewrite 网页重新功能

3. 编译服务器程序,安装

a) Make;make install

Httpd服务目录结构

1. 子目录列表

a) clip_image002

2. Httpd服务器包含的执行程序

a) clip_image004

3. 配置文件

a) clip_image006

4. 网页根目录

a) clip_image008

构建基本的web服务器

1. 修改配置文件

a) clip_image010

b) clip_image012

2. 检查httpd.conf文件语法

a) clip_image014

3. 启动httpd服务

a) clip_image016

4. 查看服务状态

a) clip_image018

Httpd.conf中的全局配置

1. ServerRoot 设置服务器根目录

2. Listen 端口号

3. User 用于设置运行Httpd的用户

4. Group 运行httpd的组

5. ServerAdmin 管理员邮箱

6. ServerName FQDN名

7. DocumentRoot 网页根目录

8. DirectoryIndex 首页

9. ErrorLog 错误日志

10. LogLevel 日志级别

11. CustomLog 日志格式

12. PidFile 保存服务进程号

13. Timeout 超时时间

14. keepAlive 保持连接功能

15. MaxKeepAliveRequests 每次连接最大文件数

16. KeepAliveTimeout 保持连接超时秒数

17. Include 特殊功能

区域设置

1. <Directory> 目录区域

2. <VirtualHost> 虚拟主机

测试httpd服务器性能

1. Ab –q –c并发请求数 –n 总请求数 http://域名:端口/路径

a) –q 不显示进程

使用ulimit命令修改最大文件数限制

1. Ulimit –a | grep “open files” 查看最多打开文件数

2. Ulimit –n 10000 修改最大打开文件数

构建基于域名的虚拟主机

修改DNS

clip_image020

创建accp.com.zone区域文件 直接复制benet.com.zone即可

clip_image022

1. 创建两个虚拟站点的网页文件

a) clip_image024

2. 修改httpd.conf文件,添加虚拟主机配置

a) clip_image026

b) clip_image028

c) clip_image030

3. 进入虚拟主机的配置文件

clip_image032

4. 修改虚拟主机的配置文件

clip_image034

5. 重启httpd 服务

a) clip_image036

构建系统用户的个人主页

1. 修改httpd文件,启用个人主页功能

a) clip_image038

b) clip_image040

c) clip_image042

2. 建立个人主页测试文件

a) clip_image044

3. 加入x权限

a) clip_image046

4. 重新启动httpd服务

a) clip_image048

使用awstats分析web日志

1. 解压软件包

a) clip_image050

b) clip_image052

c) clip_image054

2. 执行脚本进行安装

a) clip_image056

中间会弹出5次选择

1. 选择Y 改变日志格式 log files

2. 选择Y创建新的配置文件 install

3. 定义日志分析的目标网站名称 profile name &gt; www.benet.com

4. 定义awstats配置的存放目录 直接回车默认存放在 /etc/awstats file(s)

5. 添加crom计划任务 直接回车

6. 按回车退出脚本

3. 修改配置文件

a) clip_image058

b) clip_image060

4. 创建数据库存放目录,并更新数据库

a) clip_image062

b) clip_image064

5. 配置cron计划任务

a) clip_image066

b) clip_image068

c) clip_image070

d) clip_image072

Httpd服务的访问规则

基于用户的访问控制 在httpd.conf添加配置项

AuthName 定义受保护领域名称

AuthType 认证类型 Basic 为基本

AuthUserFile 设置用于保存用户账户,密码的认证文件路径

Require valid-user 授权给认证文件中的所有有效用户

1. 配置httpd.conf

a) clip_image074

b) clip_image076

2. 使用htpasswd命令创建用户,并存为.htpasswd文件 其中-c表示新建认证文件 当向以后文件中添加可以省略

a) clip_image078

3. 重新启动httpd服务

a) clip_image080

基于客户端地址的访问控制

在httpd.conf文件中的<Directory>目录区域中写入针对此区域的控制

1. Order allow,deny 先允许后拒绝

2. Order deny,allow 先拒绝后允许

a) 例如

i. Order allow,deny

Allow from all 允许全部

Order deny,allow

Deny from benet.com.cn

Deny from 192.168.1.1 不允许benet.com.cn域中的用户和192.168.1.1访问



本文转自 郑伟  51CTO博客,原文链接:http://blog.51cto.com/zhengweiit/371868

相关实践学习
通过日志服务实现云资源OSS的安全审计
本实验介绍如何通过日志服务实现云资源OSS的安全审计。
相关文章
|
7月前
|
Ubuntu Linux 网络安全
Linux服务器之Ubuntu的安装与配置
Ubuntu Desktop是目前最成功、最流行的图形界面的Linux发行版;而Ubuntu Server也在服务器端市场占据了较大的份额。今天为大家详细介绍了Ubuntu Server的安装与配置,希望对你能有所帮助。关于VMware、VirtualBox等虚拟化软件的使用,朱哥还会在后续的文章中为大家详细介绍,敬请关注!
|
5月前
|
存储 Linux 开发工具
Linux环境下使用Buildroot配置软件包
使用Buildroot可以大大简化嵌入式Linux系统的开发和维护工作,但它需要对Linux系统和交叉编译有深入的理解。通过上述步骤,可以有效地配置和定制软件包,为特定的嵌入式应用构建高效、稳定的系统。
632 11
|
8月前
|
Kubernetes Linux 网络安全
Rocky Linux 8.9配置Kubernetes集群详解,适用于CentOS环境
初始化成功后,记录下显示的 `kubeadm join`命令。
523 0
|
10月前
|
关系型数据库 MySQL Java
安装和配置JDK、Tomcat、MySQL环境,以及如何在Linux下更改后端端口。
遵循这些步骤,你可以顺利完成JDK、Tomcat、MySQL环境的安装和配置,并在Linux下更改后端端口。祝你顺利!
581 11
|
9月前
|
Linux 网络安全 开发工具
在Linux下配置gitee与Github的远程仓库
注意,git push后,是输入你的账号与密码。这个步骤可以通过特殊设置省去,但是一开始还是不要太省。
465 0
|
5月前
|
人工智能 数据处理 API
阿里云、Ververica、Confluent 与 LinkedIn 携手推进流式创新,共筑基于 Apache Flink Agents 的智能体 AI 未来
Apache Flink Agents 是由阿里云、Ververica、Confluent 与 LinkedIn 联合推出的开源子项目,旨在基于 Flink 构建可扩展、事件驱动的生产级 AI 智能体框架,实现数据与智能的实时融合。
937 6
阿里云、Ververica、Confluent 与 LinkedIn 携手推进流式创新,共筑基于 Apache Flink Agents 的智能体 AI 未来
|
存储 Cloud Native 数据处理
从嵌入式状态管理到云原生架构:Apache Flink 的演进与下一代增量计算范式
本文整理自阿里云资深技术专家、Apache Flink PMC 成员梅源在 Flink Forward Asia 新加坡 2025上的分享,深入解析 Flink 状态管理系统的发展历程,从核心设计到 Flink 2.0 存算分离架构,并展望未来基于流批一体的通用增量计算方向。
485 0
从嵌入式状态管理到云原生架构:Apache Flink 的演进与下一代增量计算范式
|
7月前
|
SQL 人工智能 数据挖掘
Apache Flink:从实时数据分析到实时AI
Apache Flink 是实时数据处理领域的核心技术,历经十年发展,已从学术项目成长为实时计算的事实标准。它在现代数据架构中发挥着关键作用,支持实时数据分析、湖仓集成及实时 AI 应用。随着 Flink 2.0 的发布,其在流式湖仓、AI 驱动决策等方面展现出强大潜力,正推动企业迈向智能化、实时化的新阶段。
868 9
Apache Flink:从实时数据分析到实时AI
|
7月前
|
SQL 人工智能 API
Apache Flink 2.1.0: 面向实时 Data + AI 全面升级,开启智能流处理新纪元
Apache Flink 2.1.0 正式发布,标志着实时数据处理引擎向统一 Data + AI 平台迈进。新版本强化了实时 AI 能力,支持通过 Flink SQL 和 Table API 创建及调用 AI 模型,新增 Model DDL、ML_PREDICT 表值函数等功能,实现端到端的实时 AI 工作流。同时增强了 Flink SQL 的流处理能力,引入 Process Table Functions(PTFs)、Variant 数据类型,优化流式 Join 及状态管理,显著提升作业稳定性与资源利用率。
761 0
|
6月前
|
人工智能 运维 Java
Flink Agents:基于Apache Flink的事件驱动AI智能体框架
本文基于Apache Flink PMC成员宋辛童在Community Over Code Asia 2025的演讲,深入解析Flink Agents项目的技术背景、架构设计与应用场景。该项目聚焦事件驱动型AI智能体,结合Flink的实时处理能力,推动AI在工业场景中的工程化落地,涵盖智能运维、直播分析等典型应用,展现其在AI发展第四层次——智能体AI中的重要意义。
2164 27
Flink Agents:基于Apache Flink的事件驱动AI智能体框架