Apache+SVN构建代码仓库平台

简介:

很多同学对SVN+Apache整合很少头疼,今天整理了一版Apache+SVN整合的文档,希望能帮助到大家!


SVN是Subversion的简称,是一个开放源代码的版本控制系统,相较于RCS、CVS,它采用了分支管理系统,它的设计目标就是取代CVS。互联网上很多版本控制服务已从CVS迁移到Subversion。说得简单一点SVN就是用于多个人共同开发同一个项目,共用资源的目的。


Apache是世界使用排名第一的Web服务器软件。它可以运行在几乎所有广泛使用的计算机平台上,由于其跨平台和安全性被广泛使用,是最流行的Web服务器端软件之一。它快速、可靠并且可通过简单的API扩充,将Perl/Python解释器编译到服务器中。


一、SVN软件安装

1
2
3
4
5
6
wget https: //archive .apache.org /dist/subversion/subversion-1 .7.10. tar .bz2
http: //www .sqlite.org /sqlite-amalgamation-3071502 .zip
mvsqlite-amalgamation-3071502 subversion-1.7.10 /sqlite-amalgamation
cdsubversion-1.7.10
. /configure--prefix = /usr/local/svn/
make &&  make  install

wKioL1ir_Iii9fuYAACdM_I86zM062.png

/etc/profile添加以下1行内容:

exportPATH=/usr/local/svn/bin:$PATH

安装完成后,查看svn版本信息是否已经安装, /usr/local/svn/bin/svn--version

wKiom1ir_J3iHf7BAABPYe-9MtA664.png


二、SVN服务配置

1)建立版本库目录

1
2
3
mkdir  -p  /data/svn/
建立svn版本库,关联puppet目录。
svnadmin create /data/svn/puppet

wKiom1ir_LKS_oi3AAAl38NuMRo331.png

2)   修改版本库配置文件

Vi/data/svn/puppet/conf/svnserve.conf

1
2
3
4
5
6
7
8
9
10
11
[general]
# 使非授权用户无法访问
anon-access = none
# # 使授权用户有写权限
auth-access = write
# # 指明密码文件路径
password-db =  passwd
# # 访问控制文件
authz-db = authz
# # 认证命名空间,subversion会在认证提示里显示,并且作为凭证缓存的关键字。
realm = /data/svn/puppet

3)   配置用户及权限

vi/data/svn/puppet/conf/passwd

1
2
3
[ users ]
wugk1 = 123456
wugk2 = 123456

vi/data/svn/puppet/conf/authz

1
2
3
[/]
wugk1 = rw
wugk2 = rw


三、启动SVN服务

/usr/local/svn/bin/svnserve-d -r /data/svn/ --listen-port=8001

查看本地8001端口有没有启动,netstat –ntl|grep 8001

可以在服务器使用SVN命令:

svn co -r  "5" svn://192.168.33.10:8001/puppet迁出代码。

svn commit提交代码,svn up更新代码。


四、SVN+Apache整合配置

拷贝svn模块至apache modules模块目录:

1
2
cp  /root/svn/subversion-1 .7.10 /subversion/mod_dav_svn/ .libs /mod_dav_svn .so /etc/httpd/modules/
cp /root/svn/subversion-1 .7.10 /subversion/mod_authz_svn/ .libs /mod_authz_svn .so  /etc/httpd/modules/

#vi/etc/httpd/conf/httpd.conf

末行添加如下内容:

1
2
LoadModule dav_modulemodules /mod_dav .so
LoadModuledav_svn_module modules /mod_dav_svn .so

在配置文件最後添加

1
2
3
4
5
6
7
8
9
10
<Location /svn >
DAV svn
SVNPath /data/svn/puppet
AuthType Basic
AuthName  "svnfor project"
AuthUserFile   /etc/httpd/conf/passwd
AuthzSVNAccessFile /data/svn/puppet/conf/authz
Satisfy al
Require valid-user
< /Location >

生成HTTP访问密钥:

1
htpasswd -c /etc/httpd/conf/passwd  wugk01


五、访问并测试SVN

重启apache服务,/etc/init.d/httpd restart

wKioL1ir_Mmx6rJkAABc7MEGL7U348.png

最后将puppet数据导入到SVN版本库中:

svn  import /etc/puppet/ file:///data/svn/puppet/svn -m 'ver1'

wKioL1ir_QXxP4b3AAGFi1ym368131.png


你若觉得作者的文章写得不错,请奖励作者几锭银子,让作者感受到来自你满满的鼓励和继续创作的动力!我们支持原创!鼓励原创!

打赏之后,文章底部显示参与打赏者的记录,可以直接通过微信扫描打赏哟,直接按打赏根据提示操作。

自定义打赏金额,友情提示打赏金额不要超过50元哦,土豪可以随意哦,51CTO谢谢您对作者的支持!谢谢你的慷慨大方!

wKioL1lDsc3i7hEqAAAfoPude7I249.png


本文转自 wgkgood 51CTO博客,原文链接:http://blog.51cto.com/wgkgood/1899895


相关文章
|
1月前
|
消息中间件 数据挖掘 Kafka
Apache Kafka流处理实战:构建实时数据分析应用
【10月更文挑战第24天】在当今这个数据爆炸的时代,能够快速准确地处理实时数据变得尤为重要。无论是金融交易监控、网络行为分析还是物联网设备的数据收集,实时数据处理技术都是不可或缺的一部分。Apache Kafka作为一款高性能的消息队列系统,不仅支持传统的消息传递模式,还提供了强大的流处理能力,能够帮助开发者构建高效、可扩展的实时数据分析应用。
83 5
|
1月前
|
消息中间件 存储 监控
构建高可用性Apache Kafka集群:从理论到实践
【10月更文挑战第24天】随着大数据时代的到来,数据传输与处理的需求日益增长。Apache Kafka作为一个高性能的消息队列服务,因其出色的吞吐量、可扩展性和容错能力而受到广泛欢迎。然而,在构建大规模生产环境下的Kafka集群时,保证其高可用性是至关重要的。本文将从个人实践经验出发,详细介绍如何构建一个高可用性的Kafka集群,包括集群规划、节点配置以及故障恢复机制等方面。
84 4
|
2月前
|
消息中间件 分布式计算 大数据
大数据-166 Apache Kylin Cube 流式构建 整体流程详细记录
大数据-166 Apache Kylin Cube 流式构建 整体流程详细记录
75 5
|
2月前
|
存储 SQL 分布式计算
大数据-162 Apache Kylin 全量增量Cube的构建 Segment 超详细记录 多图
大数据-162 Apache Kylin 全量增量Cube的构建 Segment 超详细记录 多图
65 3
|
1月前
|
存储 数据挖掘 数据处理
巴别时代使用 Apache Paimon 构建 Streaming Lakehouse 的实践
随着数据湖技术的发展,企业纷纷探索其优化潜力。本文分享了巴别时代使用 Apache Paimon 构建 Streaming Lakehouse 的实践。Paimon 支持流式和批处理,提供高性能、统一的数据访问和流批一体的优势。通过示例代码和实践经验,展示了如何高效处理实时数据,解决了数据一致性和故障恢复等挑战。
120 61
|
1月前
|
消息中间件 监控 数据可视化
Apache Airflow 开源最顶级的分布式工作流平台
Apache Airflow 是一个用于创作、调度和监控工作流的平台,通过将工作流定义为代码,实现更好的可维护性和协作性。Airflow 使用有向无环图(DAG)定义任务,支持动态生成、扩展和优雅的管道设计。其丰富的命令行工具和用户界面使得任务管理和监控更加便捷。适用于静态和缓慢变化的工作流,常用于数据处理。
Apache Airflow 开源最顶级的分布式工作流平台
|
1月前
|
Java Apache C++
别再手写RPC了,Apache Thrift帮你自动生成RPC客户端及服务端代码
Thrift 是一个轻量级、跨语言的远程服务调用框架,由 Facebook 开发并贡献给 Apache。它通过 IDL 生成多种语言的 RPC 服务端和客户端代码,支持 C++、Java、Python 等。Thrift 的主要特点包括开发速度快、接口维护简单、学习成本低和多语言支持。广泛应用于 Cassandra、Hadoop 等开源项目及 Facebook、百度等公司。
别再手写RPC了,Apache Thrift帮你自动生成RPC客户端及服务端代码
|
24天前
|
消息中间件 Java Kafka
Spring Boot 与 Apache Kafka 集成详解:构建高效消息驱动应用
Spring Boot 与 Apache Kafka 集成详解:构建高效消息驱动应用
36 1
|
2月前
|
Java 大数据 数据库连接
大数据-163 Apache Kylin 全量增量Cube的构建 手动触发合并 JDBC 操作 Scala
大数据-163 Apache Kylin 全量增量Cube的构建 手动触发合并 JDBC 操作 Scala
33 2
大数据-163 Apache Kylin 全量增量Cube的构建 手动触发合并 JDBC 操作 Scala
|
2月前
|
SQL 存储 监控
大数据-161 Apache Kylin 构建Cube 按照日期、区域、产品、渠道 与 Cube 优化
大数据-161 Apache Kylin 构建Cube 按照日期、区域、产品、渠道 与 Cube 优化
63 0

推荐镜像

更多
下一篇
DataWorks