IPvs的高可用性+LVS的DR模式+ldirectord

简介:

ldirectord简介:为了从主Director将LVS负载均衡资源故障转移到备用Director,并从集群中自动移除节点,我们需要使用ldirectord程序,这个程序在启动时动建立IPVS表,然后监视集群节点的健康情况,在发现失效节点时将其自动从IPVS表中移除。

ldirectord监视集群(真实服务器):ldirectord守护进程通过向每台真实服务器真实IP(RIP)上的集群资源发送访问请求来实现对真实服务器的监控,这对所有类型的LVS集群都是成立的:LVS-DR,LVS-NAT和LVS-TUN。正常情况下,为每个Director上的VIP地址运行一个ldirectord守护进程,当真实服务器不响应运行在Director上的ldirectord守护进程时,ldirectord守护进程运行适当的ipvsadm命令将VIP地址从IPVS表中移除。(以后,当真实服务器回到在线状时,ldirectord使用适当的ipvsadm命令将真实服务器重新添加到IPVS表中)

案例:在前端架设两台director主机,互为备份,实现ipvs群集的高可用性。后端架设两台web服务器实现负载均衡LB,在realserver上使用DR模式

ip地址规划:

VIP:192.168.145.101

director1:eth0:192.168.145.99

               eth1:192.168.10.1 (心跳线)

director2:eth0:192.168.145.100

               eth1:192.168.10.2(心跳线)

realserver1:eth0:192.168.145.200

realserver2:eth0:192.168.145.201

拓扑方案:

配置director1部分:

一:修改director1的主机名:

[root@node1 ~]# vim /etc/sysconfig/network

image 

二:给director1配置静态ip地址

image

image 

三:编译本地yum:

[root@node1 ~]# vim /etc/yum.repos.d/rhel-debuginfo.repo

image

四:安装相关关键包:

[root@node1 ~]# mkdir /mnt/cdrom

[root@node1 ~]# mount /dev/cdrom /mnt/cdrom/       #挂载光盘,在使用

yum localinstall中需要用到光盘上的软件包

[root@node1 ~]# yum localinstall -y heartbeat-2.1.4-9.el5.i386.rpm heartbeat-pils-2.1.4-10.el5.i386.rpm heartbeat-stonith-2.1.4-

10.el5.i386.rpm  libnet-1.1.4-3.el5.i386.rpm perl-MailTools-1.77-1.el5.noarch.rpm  --nogpgcheck   #使用localinstall可以安装外部软件包以及调用系统光盘软件包,—nogpgcheck取消签名测

五:安装ipvs的管理工具ipvsadm:

[root@node1 ~]# yum install ipvsadm -y

[root@node1 ~]# ipvsadm -A -t 192.168.145.101:80 -s rr #定义群集,rr表示

采用轮询调度,监听httpd服务的80端口

[root@node1 ~]# ipvsadm -a -t 192.168.145.101:80 -r 192.168.145.200 –g

#当监听到有访问80端口的,转换到真实的ip地址上,-g表示DR模型

[root@node1 ~]# ipvsadm -a -t 192.168.145.101:80 -r 192.168.145.201 –g

#当监听到有访问80端口的,转换到真实的ip地址上,-g表示DR模型

[root@node1 ~]# service ipvsadm save #保存配置的规则

[root@node1 ~]# service ipvsadm stop #将ipvsadm停止

六:编辑配置心跳参数,群集资源等文件

[root@node1 ~]# cd /usr/share/doc/heartbeat-2.1.4/     

[root@node1 heartbeat-2.1.4]# cp ha.cf /etc/ha.d/#将ha.cf调整心跳探测参数

[root@node1 heartbeat-2.1.4]# cp haresources /etc/ha.d/      #haresources

文件定义群集资源的资源管理器

[root@node1 heartbeat-2.1.4]# cp authkeys /etc/ha.d/       #authkeys实现

心跳线双方的身份验证

[root@node1 heartbeat-2.1.4]# cp /etc/init.d/ipvsadm /etc/ha.d/resource.d/    #将ipvsadm的控制脚本拷贝到resource.d目录下

[root@node1 heartbeat-2.1.4]# cd /etc/ha.d/

[root@node1 ha.d]# vim ha.cf        #编辑定义心跳探测参数的文件

image

image

[root@node1 ha.d]# dd if=/dev/random bs=512 count=1 |openssl md5      #利用随机文件random产生一段字符,一块512字节,数量是1,通过md5加密后输出

image

[root@node1 ha.d]# vim authkeys        #编辑心跳双方的身份验证文件

image

image

[root@node1 ha.d]# chmod 600 authkeys        #根据文件内提示将authkeys的

权限改为600

[root@node1 ha.d]# vim haresources       #定义群集的抢夺资源

image

[root@node1 ha.d]# service heartbeat start      #启动heartbeat服务

[root@node1 ha.d]# chkconfig heartbeat on      #将该服务设置为开机自动启动

[root@node1 ha.d]# ifconfig      #使用该命令查看ip地址情况

image

配置director2部分:

一:修改director2的主机名:

[root@node2 ~]# vim /etc/sysconfig/network

image

二:给director2配置静态ip地址:

image

image

三:编辑本地yum:

[root@node2 ~]# vim /etc/yum.repos.d/rhel-debuginfo.repo

image

四:安装相关软件包:

[root@node2 ~]# mkdir /mnt/cdrom

[root@node2 ~]# mount /dev/cdrom /mnt/cdrom/     #挂载光盘,在下一步中需要使用自带的光盘软件,解决依赖性问题

[root@node2 ~]# yum localinstall heartbeat-2.1.4-9.el5.i386.rpm heartbeat-pils-2.1.4-10.el5.i386.rpm heartbeat-stonith-2.1.4-10.el5.i386.rpm

libnet-1.1.4-3.el5.i386.rpm perl-MailTools-1.77-1.el5.noarch.rpm -y –nogpgcheck       #使用localinstall可以安装外部软件包以及调用系统光盘软件

包,—nogpgcheck取消签名检测

五:安装ipvs的管理工具ipvsadm:

[root@node2 ~]# yum install ipvsadm -y

[root@node2 ~]# ipvsadm -A -t 192.168.145.101:80 -s rr #定义群集,rr表示采用轮询调度,监听httpd服务的80端口

[root@node2 ~]# ipvsadm -a -t 192.168.145.101:80 -r 192.168.145.200 –g #当监听到有访问80端口的,转换到真实的ip地址上,-g表示DR模型

[root@node2 ~]# ipvsadm -a -t 192.168.145.101:80 -r 192.168.145.201 –g #当监听到有访问80端口的,转换到真实的ip地址上,-g表示DR模型

[root@node2 ~]# service ipvsadm save #保存配置的规则

[root@node2 ~]# service ipvsadm stop #将ipvsadm停止

六:编辑配置心跳参数,群集资源等文件

[root@node2 ~]# cd /usr/share/doc/heartbeat-2.1.4/

[root@node2 heartbeat-2.1.4]# cp ha.cf /etc/ha.d/       #将ha.cf调整心跳探测参数

[root@node2 heartbeat-2.1.4]# cp haresources /etc/ha.d/       #haresources文件定义群集资源的资源管理器

[root@node2 heartbeat-2.1.4]# cp authkeys /etc/ha.d/         #authkeys实现心跳线双方的身份验证

[root@node2 heartbeat-2.1.4]# cp  /etc/init.d/ipvsadm   /etc/ha.d/resource.d/     #将ipvsadm的控制脚本拷贝到resource.d目录下

[root@node2 heartbeat-2.1.4]# cd  /etc/ha.d/

[root@node2 ha.d]# vim ha.cf       #编辑心跳探测的配置文件

image

image

[root@node2 ha.d]# vim authkeys        #心跳双方的身份验证文件

image

image

[root@node2 ha.d]# chmod 600 authkeys #根据文件内提示将authkeys的权限改为600

[root@node2 ha.d]# vim haresources       #定义群集的抢夺资源

image

[root@node2 ha.d]# service heartbeat start

[root@node2 ha.d]# chkconfig heartbeat on       #将该服务设置为开机自动启动

[root@node2 ha.d]# ifconfig       #使用该命令并没有查看到抢占的VIP

配置realserver 1:

一:配置内核参数:

image

[root@lyt ~]# echo "net.ipv4.conf.eth0.arp_announce = 2">>/etc/sysctl.conf

[root@lyt ~]# echo "net.ipv4.conf.all.arp_announce = 2">>/etc/sysctl.conf

[root@lyt ~]# echo "net.ipv4.conf.eth0.arp_ignore = 1">>/etc/sysctl.conf

[root@lyt ~]# echo "net.ipv4.conf.all.arp_ignore = 1">>/etc/sysctl.conf

[root@lyt ~]# sysctl –p       #使新编辑的内核文件生效

image

image

image

[root@lyt ~]# service network restart     #重启网络服务

[root@lyt ~]# route add -host 192.168.145.101 dev lo:0      #添加一条路由,保证数据包返回时使用VIP地址192.168.145.101,出口是lo:0

二:安装web服务器:

[root@lyt ~]# mkdir /mnt/cdrom

[root@lyt ~]# mount /dev/cdrom /mnt/cdrom/

[root@lyt ~]# cd /mnt/cdrom/Server/

[root@lyt Server]# rpm -ivh httpd-2.2.3-31.el5.i386.rpm     #安装httpd

[root@lyt Server]# service httpd start

[root@lyt Server]# chkconfig httpd on

[root@lyt Server]# echo "realserver1 web1">/var/www/html/index.html      #编辑网页文件index.html

配置realserver 2:

一:配置内核参数:

image

[root@localhost ~]# echo "net.ipv4.conf.eth0.arp_announce = 2">>/etc/sysctl.conf

[root@localhost ~]# echo "net.ipv4.conf.all.arp_announce = 2">>/etc/sysctl.conf 

[root@localhost ~]# echo "net.ipv4.conf.eth0.arp_ignore = 1">>/etc/sysctl.conf

[root@localhost ~]# echo "net.ipv4.conf.all.arp_ignore = 1">>/etc/sysctl.conf

[root@localhost ~]# sysctl –p      #使刚配置的内核参数生效

image

image

image

[root@localhost ~]# service network restart

[root@localhost ~]# route add -host 192.168.145.101 dev lo:0     #添加一条路由,使返回的数据包从VIP—192.168.145.101出去,出口是lo:0

二:安装web服务器

[root@localhost ~]# mkdir /mnt/cdrom

[root@localhost ~]# mount /dev/cdrom /mnt/cdrom/

[root@localhost ~]# cd /mnt/cdrom/Server/

[root@localhost Server]# rpm -ivh httpd-2.2.3-31.el5.i386.rpm     #安装httpd服务器

[root@localhost Server]# service httpd start      #启动httpd

[root@localhost Server]# chkconfig httpd on      #开机自动启动

[root@localhost Server]# echo "realserver2 web2">/var/www/html/index.html       #编辑网页文件

测试:

image

在director1上查看:

[root@node1 ha.d]# ipvsadm –ln

image

在director2上查看:

image

[root@node1 ha.d]# cd /usr/lib/heartbeat/     #在node1.a.com上切换目录

[root@node1 heartbeat]# ./hb_standby       #将node1.a.com设置为备份

在director1上查看:

image

在director2上查看:

image

[root@node1 heartbeat]# ./hb_takeover       #将node1.a.com设置为主节点

在director1上查看:

image

在director2上查看:

image

在上个案例中实现的手工方式建立ipvs表,也可以使用ldirectord自动创建ipvs表,当节点失效时,自动清除ipvs表。在上个案例中,如果要实现ldirectord,可以作如下修改:

节点一node1.a.com

[root@node1 ~]# yum localinstall heartbeat-ldirectord-2.1.4-9.el5.i386.rpm -y --nogpgcheck   #安装ldirectord

[root@node1 ~]# rpm -ql heartbeat-ldirectord    #查看安装路径

wps_clip_image-7861

[root@node1 ~]# cp /usr/share/doc/heartbeat-ldirectord-2.1.4/ldirectord.cf /etc/ha.d/

[root@node1 ~]# cd /etc/ha.d/

[root@node1 ha.d]# vim ldirectord.cf       #编辑资源

wps_clip_image-28411

wps_clip_image-1254

wps_clip_image-18597

[root@node1 ha.d]# vim haresources

wps_clip_image-24536

节点二:node.a.com

[root@node2 ~]# yum localinstall heartbeat-ldirectord-2.1.4-9.el5.i386.rpm  -y --nogpgcheck

[root@node2 ~]# cp /usr/share/doc/heartbeat-ldirectord-2.1.4/ldirectord.cf  /etc/ha.d/

[root@node2 ~]# cd /etc/ha.d/

[root@node2 ha.d]# vim haresources     

wps_clip_image-23070

[root@node2 ha.d]# vim ldirectord.cf      #编辑资源

wps_clip_image-13853

wps_clip_image-25182










本文转自 liuyatao666 51CTO博客,原文链接:http://blog.51cto.com/5503845/1031019,如需转载请自行联系原作者
目录
相关文章
|
6月前
|
负载均衡 应用服务中间件 Linux
企业实战(13)LVS负载均衡NAT(网络地址转换)模式实战详解(一)
企业实战(13)LVS负载均衡NAT(网络地址转换)模式实战详解(一)
|
6月前
|
存储 负载均衡 网络协议
企业实战(13)LVS负载均衡DR(直接路由)模式实战详解(二)
企业实战(13)LVS负载均衡DR(直接路由)模式实战详解(二)
108 0
|
1天前
|
负载均衡 监控 Linux
CentOS6.5高可用集群LVS+Keepalived(DR模式)
CentOS6.5高可用集群LVS+Keepalived(DR模式)
|
7月前
|
存储 负载均衡 应用服务中间件
LVS负载均衡群集——NAT模式实操
LVS负载均衡群集——NAT模式实操
200 0
|
4月前
|
负载均衡 监控 调度
Keepalived+Lvs(dr)调度器主备配置小实验
Keepalived和LVS(Linux Virtual Server)是两个常用的开源软件,通常结合使用以提供高可用性和负载均衡的解决方案。 Keepalived是一种用于实现高可用性的软件,它可以监控服务器的健康状态,并在主服务器出现故障时自动切换到备份服务器。
98 2
|
7月前
|
存储 负载均衡 网络协议
LVS负载均衡群集—DR直接路由
LVS负载均衡群集—DR直接路由
65 0
|
11月前
|
负载均衡 网络协议 算法
LVS负载均衡(三种工作模式、原理、实验)
LVS负载均衡(三种工作模式、原理、实验)
382 0
|
存储 负载均衡 并行计算
LVS负载均衡群集——NAT模式实例
LVS负载均衡群集——NAT模式实例
LVS负载均衡群集——NAT模式实例
|
负载均衡 网络协议 调度
LVS负载均衡DR模式群集部署(二)
LVS负载均衡DR模式群集部署(二)
LVS负载均衡DR模式群集部署(二)
|
存储 负载均衡 网络协议