在Puppet中用ERB模板来自动配置Apache虚拟主机

简介:

模板文件是在puppet模块下面templates目录中以”.erb”结尾的文件,puppet模板主要用于文件,例如各种服务的配置文件,相同的服务,不同的配置就可以考虑使用模板文件,例如Nginx和Apache的虚拟主机配置就可以考虑采用ERB模板。

/etc/puppet/modules/apache/manifests文件内容如下所示:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
class apache{
         package{ "httpd" :
         ensure          =>present,
}
         service{ "httpd" :
         ensure          =>running,
         require         =>Package[ "httpd" ],
}
}
define apache::vhost ( $sitedomain,$rootdir,$port ) {
     file  "/etc/httpd/conf.d/httpd_vhost_${sitedomain}.conf" :
          #path    => '/etc/httpd/conf/httpd_vhost.conf',
          content => template( "apache/httpd.conf.erb" ),
          require => Package[ "httpd" ],
     }
}


/etc/puppet/modules/apache/templates中的httpd.conf.erb模板文件内容如下所示:

1
2
3
4
5
6
7
8
9
10
11
12
<VirtualHost *:<%= port %>>
ServerName <%= sitedomain %>
DocumentRoot  /var/www/html/ <%= rootdir %>
  <Directory <%= rootdir %>>
   Options Indexes FollowSymLinks
   AllowOverride None
   Order allow,deny
   Allow from all
  < /Directory >
ErrorLog logs/<%= sitedomain %>_error.log
CustomLog logs/<%= sitedomain %>_access.log common
< /VirtualHost >


注:很多资料和文档都是复制/etc/httpd/conf/httpd.conf文件来作为httpd.conf.erb模板,我觉得这种做法还是欠缺考虑的,一般来说,每台Aapche主机上面至少有一个基于域名的虚拟主机,有的更多,十几个也很常见,所以我们才需要用独立的虚拟主机文件来管理虚拟主机并自动的载入,这也是我们利用erb模板文件将虚拟主机的文件定义路径放在/etc/httpd/conf.d目录下的原因。





本文转自 抚琴煮酒 51CTO博客,原文链接:http://blog.51cto.com/yuhongchun/1325296,如需转载请自行联系原作者

目录
相关文章
|
SQL 分布式计算 Java
Apache Hudi表自动同步至阿里云数据湖分析DLA
Hudi 0.6.0版本之前只支持将Hudi表同步到Hive或者兼容Hive的MetaStore中,对于云上其他使用与Hive不同SQL语法MetaStore则无法支持,为解决这个问题,近期社区对原先的同步模块hudi-hive-sync进行了抽象改造,以支持将Hudi表同步到其他类型MetaStore中,如阿里云的数据湖分析DLA(https://www.aliyun.com/product/datalakeanalytics中。
563 0
Apache Hudi表自动同步至阿里云数据湖分析DLA
|
Apache
apache 2.4.4 自动分割日志,按年月日生成
&lt;VirtualHost *:80&gt; #风来了.呆狐狸 DocumentRoot "/www/wwwroot/www.lanmps.com" ServerName www.lanmps.com DirectoryIndex index.html index.php index.htm ErrorLog "/www/wwwLogs/logs/www.lanmps.com/_er
1665 0
|
监控 Shell Apache
自动监控apache服务状态并重启的shell脚本
#!/bin/sh curdate=`date +"%Y-%m-%d %H:%M:%S"` #echo $curdate" exit " &gt;&gt; /home/opp/mon.log 2&gt;&amp;1 &amp; #exit #statistik forum.php num=`ps -ef|grep "/opp/apache/bin/httpd"|grep -v grep|
1540 0
|
Shell 网络安全 Apache
【Shell脚本】自动ssh登录重启Apache
作者:gnuhpc 出处:http://www.cnblogs.com/gnuhpc/ #!/usr/bin/expect -f set timeout 30 spawn ssh -l root 192.
698 0
|
7月前
|
人工智能 数据处理 API
阿里云、Ververica、Confluent 与 LinkedIn 携手推进流式创新,共筑基于 Apache Flink Agents 的智能体 AI 未来
Apache Flink Agents 是由阿里云、Ververica、Confluent 与 LinkedIn 联合推出的开源子项目,旨在基于 Flink 构建可扩展、事件驱动的生产级 AI 智能体框架,实现数据与智能的实时融合。
1204 6
阿里云、Ververica、Confluent 与 LinkedIn 携手推进流式创新,共筑基于 Apache Flink Agents 的智能体 AI 未来
|
存储 Cloud Native 数据处理
从嵌入式状态管理到云原生架构:Apache Flink 的演进与下一代增量计算范式
本文整理自阿里云资深技术专家、Apache Flink PMC 成员梅源在 Flink Forward Asia 新加坡 2025上的分享,深入解析 Flink 状态管理系统的发展历程,从核心设计到 Flink 2.0 存算分离架构,并展望未来基于流批一体的通用增量计算方向。
568 0
从嵌入式状态管理到云原生架构:Apache Flink 的演进与下一代增量计算范式
|
9月前
|
SQL 人工智能 数据挖掘
Apache Flink:从实时数据分析到实时AI
Apache Flink 是实时数据处理领域的核心技术,历经十年发展,已从学术项目成长为实时计算的事实标准。它在现代数据架构中发挥着关键作用,支持实时数据分析、湖仓集成及实时 AI 应用。随着 Flink 2.0 的发布,其在流式湖仓、AI 驱动决策等方面展现出强大潜力,正推动企业迈向智能化、实时化的新阶段。
1000 9
Apache Flink:从实时数据分析到实时AI
|
9月前
|
SQL 人工智能 API
Apache Flink 2.1.0: 面向实时 Data + AI 全面升级,开启智能流处理新纪元
Apache Flink 2.1.0 正式发布,标志着实时数据处理引擎向统一 Data + AI 平台迈进。新版本强化了实时 AI 能力,支持通过 Flink SQL 和 Table API 创建及调用 AI 模型,新增 Model DDL、ML_PREDICT 表值函数等功能,实现端到端的实时 AI 工作流。同时增强了 Flink SQL 的流处理能力,引入 Process Table Functions(PTFs)、Variant 数据类型,优化流式 Join 及状态管理,显著提升作业稳定性与资源利用率。
841 0
|
8月前
|
人工智能 运维 Java
Flink Agents:基于Apache Flink的事件驱动AI智能体框架
本文基于Apache Flink PMC成员宋辛童在Community Over Code Asia 2025的演讲,深入解析Flink Agents项目的技术背景、架构设计与应用场景。该项目聚焦事件驱动型AI智能体,结合Flink的实时处理能力,推动AI在工业场景中的工程化落地,涵盖智能运维、直播分析等典型应用,展现其在AI发展第四层次——智能体AI中的重要意义。
2714 27
Flink Agents:基于Apache Flink的事件驱动AI智能体框架

热门文章

最新文章

推荐镜像

更多