拓扑图:
环境描述:
操作系统:CentOS6.3_x64
主:eth0 192.168.10.10 心跳:eth1 192.168.1.10
备:eth0 192.168.10.20 心跳:eth1 192.168.1.20
VTP:192.168.128.5
heartbeat(Linux-HA)的工作原理:heartbeat最核心的包括两个部分,心跳监测部分和资源接管部分,心跳监测可以通过网络链路和串口进行,而且支持冗余链路,它们之间相互发送报文来告诉对方自己当前的状态,如果在指定的时间内未受到对方发送的报文,那么就认为对方失效,这时需启动资源接管模块来接管运 行在对方主机上的资源或者服务。
Heartbeat:(心跳检测)本身是整个集群的基础(cluster messaging layer),负责维护集群各节点的信息以及它们之前通信;只提供主从备份功能,并不能对各个节点进行监控,需要安装ldirectord。
Resource-agent:(资源代理)就是各种的资源的ocf脚本,这些脚本将被LRM调用从而实现各种资源启动、停止、监控等等。
Cluster-glue:相当于一glue:相当于一个中间可以将heartbeat和crm(pacemaker)联系起来,主要包含2个部分,LRM和STONITH;
Ldirectord:负责realserver的健康检查,可以自动将realserver中宕机的机器移除,不再分配请求。
安装依赖包:
yum install -y gcc gcc-c++ autoconf libtool pkgconfig glib2-devel libxslt-devel libxml2-devel bzip2-devel libtool-ltdl-devel libuuid-devel docbook-style-xsl
安装资源接管服务依赖包:
yum install -y *Socket6* *libwww-perl* *URI* *MailTools* *HTML-Parser* perl-IO-Socket-*
配置host解析
vi /etc/hosts
192.168.10.10 master
192.168.10.20 slave
软件下载:http://www.linux-ha.org/wiki/Downloads
一、配置主从heartbeat服务器(配置相同)
创建需要的组和用户
groupadd haclient useradd -g haclient -s /sbin/nologin -M hacluster
1.安装资源接管服务(要先安装资源接管服务,否则安装心跳服务会报错)
tar zxvf Reusable-Cluster-Components-glue--glue-1.0.9.tar.bz2 cd Reusable-Cluster-Components-glue--glue-1.0.9 ./autogen.sh ./configure make && make install
2.安装心跳服务
tar jxvf Heartbeat-3-0-7e3a82377fa8.tar.bz2 cd Heartbeat-3-0-7e3a82377fa8 ./ConfigureMe configure make && make install
报错:./configure: error: Core development headers were not found
解决:./ConfigureMe configure ,如果还解决不了,就是你没有安装Heartbeat服务
报错:gmake[1]: --xinclude: Command not found ,gmake[1]: *** [heartbeat.8] Error 127
解决:yum install libxslt-devel
3.安装中间件服务
tar jxvf ClusterLabs-resource-agents-v3.9.2-0-ge261943.tar.gz cd ClusterLabs-resource-agents-b735277 ./autogen.sh ./configure make && make install
报错:syntax error near unexpected token `DBUS,
解决:vi configure,注释这行PKG_CHECK_MODULES(DBUS, dbus-1, dbus-glib-1)
二、配置heartbeat
/etc/ha.d/ha.cf #定义心跳信息层,用于实现心跳信息传输。 /etc/ha.d/haresources #本地最重要的CRM,这个文件我们使用v1版本的配置文件,很简单。 /etc/ha.d/authkeys #实现两个节点之间传递,对心跳信息进行签名,或者加密,避免篡改;authkeys的权限非常重要,通常是400或者600的,如果设置不对无法启动heartbeat服务。 rm -rf /usr/etc/ha.d ln -s /etc/ha.d /usr/etc cp /usr/share/doc/heartbeat/haresources /etc/ha.d cp /usr/share/doc/heartbeat/authkeys /etc/ha.d cp /usr/share/doc/heartbeat/ha.cf /etc/ha.d chmod 600 /etc/ha.d/authkeys chkconfig heartbeat on
1.修改配置文件
vi authkeys auth 2 #1 crc 2 sha1 HI! #3 md5 Hello!
vi ha.cf logfile /var/log/ha-log logfacility local0 #如果未定义上述日志,默认写入/var/log/message keepalive 2 #心跳间隔 deadtime 30 #死亡阀值 warntime 10 #警告时间 initdead 120 #首次启动heartbeat,等待多久才启动主服务资源 udpport 694 #连接端口 ucast eth1 192.168.1.20 #采用网卡的eth1组织心跳,后跟接口IP auto_failback on #当主节点故障恢复后,自动获取资源并取代从节点 node master #主节点主机名 node slave #备份节点主机名 ping 192.168.1.1 #选择ping节点,ping的越好对HA集群越稳定,建议使用网关
vi haresources master IPaddr::192.168.128.5 ldirectord::ldirectord.cf httpd #格式:[主机名] [资源名与虚拟ip] [资源名与脚本] [高可用服务] #每个资源都是一个shell脚本,后面还可以写虚拟IP和资源,heartbeat会使用init脚本来管理系统服务,在范围内搜索脚本并启用
scp -r /etc/ha.d root@slave:/etc/ha.d #配置好的复制到备份服务器上 rm -rf /usr/etc/ha.d ln -s /etc/ha.d /usr/etc
2.配置ldirectord
cp ClusterLabs-resource-agents-b735277/ldirectord/ldirectord.cf /etc/ha.d/ vi /etc/ha.d/ldirectord.cf checktimeout=3 checkinterval=1 autoreload=yes quiescent=yes virtual=192.168.128.5:80 real=192.168.1.10:80 gate real=192.168.1.20:80 gate fallback=127.0.0.1:80 gate service=http scheduler=rr protocol=tcp checkport=80
三、测试
service iptables stop #关闭防火墙 setenforce 0 #临时关闭selinux service heartbeat start ifconfig #会显示192.168.0.100绑定在主服务器eth0:0 echo “192.168.10.10″ > /var/www/html/index.html echo “192.168.10.20″ > /var/www/html/index.html
hearbeat启动报错:
/etc/init.d/heartbeat: line 53: /etc/ha.d/shellfuncs: No such file or directory
解决:这是因为没有装ClusterLabs-resource-agents导致的,装了这个中间件会把shellfuncs自动复制过去,我们可以手动复制过去即可。
cp ClusterLabs-resource-agents-b735277/heartbeat/shellfuncs /etc/ha.d/
http://192.168.128.5 #正常访问到192.168.10.10
模拟down掉192.168.10.10的httpd服务,再刷新页面显示192.168.10.20,说明配置成功!
生产环境中,网站程序数据必须是一致的,可以采用rsync进行同步或使用共享存储(NFS、ISCSI),后台MySQL数据库可以采用双主热备,实现高可用性。