Linux双机热备解决方案之Heartbeat-阿里云开发者社区

开发者社区> 云计算> 正文
登录阅读全文

Linux双机热备解决方案之Heartbeat

简介:

拓扑图:

085615163.jpg

环境描述:

操作系统:CentOS6.3_x64

主:eth0 192.168.10.10 心跳:eth1 192.168.1.10

备:eth0 192.168.10.20 心跳:eth1 192.168.1.20

VTP:192.168.128.5

heartbeatLinux-HA)的工作原理heartbeat最核心的包括两个部分,心跳监测部分和资源接管部分,心跳监测可以通过网络链路和串口进行,而且支持冗余链路,它们之间相互发送报文来告诉对方自己当前的状态,如果在指定的时间内未受到对方发送的报文,那么就认为对方失效,这时需启动资源接管模块来接管运 行在对方主机上的资源或者服务。

Heartbeat:(心跳检测)本身是整个集群的基础(cluster messaging layer),负责维护集群各节点的信息以及它们之前通信;只提供主从备份功能,并不能对各个节点进行监控,需要安装ldirectord

Resource-agent:(资源代理)就是各种的资源的ocf脚本,这些脚本将被LRM调用从而实现各种资源启动、停止、监控等等。

Cluster-glue:相当于一个中间层,可以将heartbeat和crm(pacemaker)联系起来,主要包含2个部分,LRM和STONITH;

Ldirectord:负责realserver的健康检查,可以自动将realserver中宕机的机器移除,不再分配求。

安装依赖包:

1
yum install -y gcc gcc-c++ autoconf libtool pkgconfig glib2-devel libxslt-devel libxml2-devel bzip2-devel libtool-ltdl-devel libuuid-devel docbook-style-xsl

安装资源接管服务依赖包:

1
yum install -y *Socket6* *libwww-perl* *URI* *MailTools* *HTML-Parser* perl-IO-Socket-*

配置host解析

vi /etc/hosts

192.168.10.10 master

192.168.10.20 slave

软件下载:http://www.linux-ha.org/wiki/Downloads

一、配置主从heartbeat服务器(配置相同)

创建需要的组和用户

1
2
groupadd haclient
useradd -g haclient -s /sbin/nologin -M hacluster

1.安装资源接管服务(要先安装资源接管服务,否则安装心跳服务会报错)

1
2
3
4
5
tar zxvf Reusable-Cluster-Components-glue--glue-1.0.9.tar.bz2
cd Reusable-Cluster-Components-glue--glue-1.0.9
./autogen.sh
./configure
make && make install

2.安装心跳服务

1
2
3
4
tar jxvf Heartbeat-3-0-7e3a82377fa8.tar.bz2
cd Heartbeat-3-0-7e3a82377fa8
./ConfigureMe configure
make && make install

报错:./configure: error: Core development headers were not found

解决:./ConfigureMe configure ,如果还解决不了,就是你没有安装Heartbeat服务

报错:gmake[1]: --xinclude: Command not found ,gmake[1]: *** [heartbeat.8] Error 127

解决:yum install libxslt-devel

3.安装中间件服务

1
2
3
4
5
tar jxvf ClusterLabs-resource-agents-v3.9.2-0-ge261943.tar.gz
cd ClusterLabs-resource-agents-b735277
./autogen.sh
./configure
make && make install

报错:syntax error near unexpected token `DBUS,

解决:vi configure,注释这行PKG_CHECK_MODULES(DBUS, dbus-1, dbus-glib-1)

二、配置heartbeat

1
2
3
4
5
6
7
8
9
10
/etc/ha.d/ha.cf #定义心跳信息层,用于实现心跳信息传输。
/etc/ha.d/haresources #本地最重要的CRM,这个文件我们使用v1版本的配置文件,很简单。
/etc/ha.d/authkeys #实现两个节点之间传递,对心跳信息进行签名,或者加密,避免篡改;authkeys的权限非常重要,通常是400或者600的,如果设置不对无法启动heartbeat服务。
rm -rf /usr/etc/ha.d
ln -s /etc/ha.d /usr/etc
cp /usr/share/doc/heartbeat/haresources /etc/ha.d
cp /usr/share/doc/heartbeat/authkeys /etc/ha.d
cp /usr/share/doc/heartbeat/ha.cf /etc/ha.d
chmod 600 /etc/ha.d/authkeys
chkconfig heartbeat on

1.修改配置文件

1
2
3
4
5
vi authkeys
auth 2
#1 crc
2 sha1 HI!
#3 md5 Hello!

1
2
3
4
5
6
7
8
9
10
11
12
13
vi ha.cf
logfile /var/log/ha-log
logfacility local0 #如果未定义上述日志,默认写入/var/log/message
keepalive 2 #心跳间隔
deadtime 30 #死亡阀值
warntime 10 #警告时间
initdead 120 #首次启动heartbeat,等待多久才启动主服务资源
udpport 694 #连接端口
ucast eth1 192.168.1.20 #采用网卡的eth1组织心跳,后跟接口IP
auto_failback on #当主节点故障恢复后,自动获取资源并取代从节点
node master #主节点主机名
node slave #备份节点主机名
ping 192.168.1.1 #选择ping节点,ping的越好对HA集群越稳定,建议使用网关

1
2
3
4
vi haresources
master IPaddr::192.168.128.5 ldirectord::ldirectord.cf httpd
#格式:[主机名] [资源名与虚拟ip] [资源名与脚本] [高可用服务]
#每个资源都是一个shell脚本,后面还可以写虚拟IP和资源,heartbeat会使用init脚本来管理系统服务,在范围内搜索脚本并启用
1
2
3
scp -r /etc/ha.d root@slave:/etc/ha.d #配置好的复制到备份服务器上
rm -rf /usr/etc/ha.d
ln -s /etc/ha.d /usr/etc

2.配置ldirectord 

1
2
3
4
5
6
7
8
9
10
11
12
13
14
cp ClusterLabs-resource-agents-b735277/ldirectord/ldirectord.cf /etc/ha.d/
vi /etc/ha.d/ldirectord.cf
checktimeout=3
checkinterval=1
autoreload=yes
quiescent=yes
virtual=192.168.128.5:80
    real=192.168.1.10:80 gate
    real=192.168.1.20:80 gate
    fallback=127.0.0.1:80 gate
    service=http
    scheduler=rr
    protocol=tcp
    checkport=80

三、测试

1
2
3
4
5
6
service iptables stop #关闭防火墙
setenforce 0 #临时关闭selinux
service heartbeat start
ifconfig #会显示192.168.0.100绑定在主服务器eth0:0
echo “192.168.10.10″ > /var/www/html/index.html
echo “192.168.10.20″ > /var/www/html/index.html

hearbeat启动报错:

/etc/init.d/heartbeat: line 53: /etc/ha.d/shellfuncs: No such file or directory

解决:这是因为没有装ClusterLabs-resource-agents导致的,装了这个中间件会把shellfuncs自动复制过去,我们可以手动复制过去即可。

cp ClusterLabs-resource-agents-b735277/heartbeat/shellfuncs /etc/ha.d/


http://192.168.128.5 #正常访问到192.168.10.10

模拟down掉192.168.10.10的httpd服务,再刷新页面显示192.168.10.20,说明配置成功!

生产环境中,网站程序数据必须是一致的,可以采用rsync进行同步或使用共享存储(NFS、ISCSI),后台MySQL数据库可以采用双主热备,实现高可用性。

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

分享:
云计算
使用钉钉扫一扫加入圈子
+ 订阅

时时分享云计算技术内容,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。

其他文章