在Puppet中用ERB模板来自动配置Apache虚拟主机

简介:

模板文件是在puppet模块下面templates目录中以”.erb”结尾的文件,puppet模板主要用于文件,例如各种服务的配置文件,相同的服务,不同的配置就可以考虑使用模板文件,例如Nginx和Apache的虚拟主机配置就可以考虑采用ERB模板。

/etc/puppet/modules/apache/manifests文件内容如下所示:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
class apache{
         package{ "httpd" :
         ensure          =>present,
}
         service{ "httpd" :
         ensure          =>running,
         require         =>Package[ "httpd" ],
}
}
define apache::vhost ( $sitedomain,$rootdir,$port ) {
     file  "/etc/httpd/conf.d/httpd_vhost_${sitedomain}.conf" :
          #path    => '/etc/httpd/conf/httpd_vhost.conf',
          content => template( "apache/httpd.conf.erb" ),
          require => Package[ "httpd" ],
     }
}


/etc/puppet/modules/apache/templates中的httpd.conf.erb模板文件内容如下所示:

1
2
3
4
5
6
7
8
9
10
11
12
<VirtualHost *:<%= port %>>
ServerName <%= sitedomain %>
DocumentRoot  /var/www/html/ <%= rootdir %>
  <Directory <%= rootdir %>>
   Options Indexes FollowSymLinks
   AllowOverride None
   Order allow,deny
   Allow from all
  < /Directory >
ErrorLog logs/<%= sitedomain %>_error.log
CustomLog logs/<%= sitedomain %>_access.log common
< /VirtualHost >


注:很多资料和文档都是复制/etc/httpd/conf/httpd.conf文件来作为httpd.conf.erb模板,我觉得这种做法还是欠缺考虑的,一般来说,每台Aapche主机上面至少有一个基于域名的虚拟主机,有的更多,十几个也很常见,所以我们才需要用独立的虚拟主机文件来管理虚拟主机并自动的载入,这也是我们利用erb模板文件将虚拟主机的文件定义路径放在/etc/httpd/conf.d目录下的原因。





本文转自 抚琴煮酒 51CTO博客,原文链接:http://blog.51cto.com/yuhongchun/1325296,如需转载请自行联系原作者

目录
相关文章
|
SQL 分布式计算 Java
Apache Hudi表自动同步至阿里云数据湖分析DLA
Hudi 0.6.0版本之前只支持将Hudi表同步到Hive或者兼容Hive的MetaStore中,对于云上其他使用与Hive不同SQL语法MetaStore则无法支持,为解决这个问题,近期社区对原先的同步模块hudi-hive-sync进行了抽象改造,以支持将Hudi表同步到其他类型MetaStore中,如阿里云的数据湖分析DLA(https://www.aliyun.com/product/datalakeanalytics中。
321 0
Apache Hudi表自动同步至阿里云数据湖分析DLA
|
Java 测试技术 API
使用apache的HttpClient进行http通讯,隐藏的HTTP请求头部字段是如何自动被添加的
使用apache的HttpClient进行http通讯,隐藏的HTTP请求头部字段是如何自动被添加的
155 0
使用apache的HttpClient进行http通讯,隐藏的HTTP请求头部字段是如何自动被添加的
使用apache的HttpClient进行http通讯,隐藏的HTTP请求头部字段是如何自动被添加的
我们用apache的HttpClient这个库消费云端的Restful API时,一般都需要两次HTTP调用,第一次获得某种token,比如获取防止跨域请求伪造攻击Cross-site request forgery - CSRF的token,或者比如微信API的access token,第二次再进行真正的API消费。
670 0
|
Apache
apache 2.4.4 自动分割日志,按年月日生成
&lt;VirtualHost *:80&gt; #风来了.呆狐狸 DocumentRoot "/www/wwwroot/www.lanmps.com" ServerName www.lanmps.com DirectoryIndex index.html index.php index.htm ErrorLog "/www/wwwLogs/logs/www.lanmps.com/_er
1514 0
|
监控 Shell Apache
自动监控apache服务状态并重启的shell脚本
#!/bin/sh curdate=`date +"%Y-%m-%d %H:%M:%S"` #echo $curdate" exit " &gt;&gt; /home/opp/mon.log 2&gt;&amp;1 &amp; #exit #statistik forum.php num=`ps -ef|grep "/opp/apache/bin/httpd"|grep -v grep|
1382 0
|
Shell 网络安全 Apache
【Shell脚本】自动ssh登录重启Apache
作者:gnuhpc 出处:http://www.cnblogs.com/gnuhpc/ #!/usr/bin/expect -f set timeout 30 spawn ssh -l root 192.
557 0
|
3天前
|
监控 大数据 Java
使用Apache Flink进行大数据实时流处理
Apache Flink是开源流处理框架,擅长低延迟、高吞吐量实时数据流处理。本文深入解析Flink的核心概念、架构(包括客户端、作业管理器、任务管理器和数据源/接收器)和事件时间、窗口、状态管理等特性。通过实战代码展示Flink在词频统计中的应用,讨论其实战挑战与优化。Flink作为大数据处理的关键组件,将持续影响实时处理领域。
38 5
|
24天前
|
消息中间件 Java Kafka
实时计算 Flink版操作报错之Apache Flink中的SplitFetcher线程在读取数据时遇到了未预期的情况,该怎么解决
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
4天前
|
数据采集 关系型数据库 MySQL
使用Apache Flink实现MySQL数据读取和写入的完整指南
使用Apache Flink实现MySQL数据读取和写入的完整指南
使用Apache Flink实现MySQL数据读取和写入的完整指南

推荐镜像

更多