LVS的DR模型的配置及扩展应用(一)

简介:

一、LVS的DR模型配置

在上一篇博客中介绍了LVS 模型分别是:NAT、DR、TUN。模型中DR模型相对其余两个的好处。这由DR的模型可以看出来。如图所示DR的模型:


用户的请求经过Director服务器而返回时,由RealServer服务器直接返回给用户。这样大减轻了Director的工作压力。
    好了。下面来开始配置一个DR模型的应用。
    首先,要用到三台虚拟机,这三台虚拟机分别做,Director服务器和RealServer1和RealServer2。可以在真实机上作测试。如图所示的规化。


RealServer1和RealServer2都是web服务器。

IP的划分:
1、Director服务器上
Dip: 172.16.35.10/16 这个地址是在eth0上
Vip:172.16.35.2/16  这个地址是在eth0:1上
2、RealServer1服务器上
Dip: 172.16.35.5/16   这个地址是在eth0上 
Vip: 配置在lo上
3、RealServer2服务器上
Dip: 172.16.35.1/16   这个地址是在eth0上 
Vip: 配置在lo上

下面来配置。
在Director服务器上
InBlock.gif# ifconfig eth0 172.16.35.10/16 
InBlock.gif# ifconfig eth0:1 172.16.35.2 broadcast 172.16.35.2 netmask 255.255.255.255 up 
InBlock.gif# route add -host 172.16.35.2 dev eth0:1    
InBlock.gif# sysctl -w net.ipv4.ip_forward=1 (开启路由转发功能)


在RealServer1服务器上配置

# echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore 
InBlock.gif# echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce 
InBlock.gif# echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore 
InBlock.gif# echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce 
InBlock.gif# ifconfig lo:0 172.16.35.2 broadcast 172.16.35.2 netmask 255.255.255.255 up 
InBlock.gif# route add -host 172.16.35.2 dev lo:0
说明:arp_ignore和arp_announce是两个内参数。

在RealServer2服务器上的配置

InBlock.gif# echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore    
InBlock.gif# echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce    
InBlock.gif# echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore    
InBlock.gif# echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce    
InBlock.gif# ifconfig lo:0 172.16.35.2 broadcast 172.16.35.2 netmask 255.255.255.255 up    
InBlock.gif# route add -host 172.16.35.2 dev lo:0

下面在Director服务器上写ipvsadm规则
# ipvsadm -L -n (查看是否有规则) 
# ipvsadm -C(清空规则) 
InBlock.gif     
# ipvsadm -A -t 172.16.35.2:80 -s rr 
# ipvsadm -a -t 172.16.35.2:80 -r 172.16.35.1 -g    
# ipvsadm -a -t 172.16.35.2:80 -r 172.16.35.2 -g 

下面在浏览器中输入:http://172.16.35.2来验证一下。 如图所示:



这是RealServer1服务器所提供的网页。

经过刷新后就可以在两个服务器之间切换。如下图所示:



如果两个服务器所提供的网页相同就可以实现负载平衡了。
下面来用http自带的压力测试来测试一下。
再打开一个虚拟机命令:
# ab -c 10 -n 10000 http://172.16.35.2/index.html
Director服务器上来查看一下。
如图所示:


这里使用的高度方法是轮询的方式,所以两个服务器所连接数量大致相同。也可以使用其他的调度方式,用上述的方式来验证。






本文转自 ZhouLS 51CTO博客,原文链接:http://blog.51cto.com/zhou123/834742

相关文章
|
15天前
|
运维 算法 Linux
LVS详解(四)——LVS安装与配置命令
LVS详解(四)——LVS安装与配置命令
16 2
|
6月前
|
存储 负载均衡 网络协议
企业实战(13)LVS负载均衡DR(直接路由)模式实战详解(二)
企业实战(13)LVS负载均衡DR(直接路由)模式实战详解(二)
109 0
|
2天前
|
负载均衡 监控 Linux
CentOS6.5高可用集群LVS+Keepalived(DR模式)
CentOS6.5高可用集群LVS+Keepalived(DR模式)
|
4月前
|
负载均衡 监控 调度
Keepalived+Lvs(dr)调度器主备配置小实验
Keepalived和LVS(Linux Virtual Server)是两个常用的开源软件,通常结合使用以提供高可用性和负载均衡的解决方案。 Keepalived是一种用于实现高可用性的软件,它可以监控服务器的健康状态,并在主服务器出现故障时自动切换到备份服务器。
98 2
|
7月前
|
存储 负载均衡 网络协议
LVS负载均衡群集—DR直接路由
LVS负载均衡群集—DR直接路由
66 0
|
8月前
|
网络协议 Linux 调度
lvs架构扩展
lvs架构扩展
138 0
|
11月前
|
监控 网络协议 数据安全/隐私保护
高可用 - 05 Keepalived配置(全局配置、VRRPD、LVS)
高可用 - 05 Keepalived配置(全局配置、VRRPD、LVS)
421 0
|
负载均衡 Linux Docker
LVS+keepalived配置高可用架构和负载均衡机制(2)
LVS+keepalived配置高可用架构和负载均衡机制(2)
176 0
|
负载均衡 网络协议 前端开发
LVS+keepalived配置高可用架构和负载均衡机制(1)
LVS+keepalived配置高可用架构和负载均衡机制(1)
661 1
|
负载均衡 网络协议 调度
LVS负载均衡DR模式群集部署(二)
LVS负载均衡DR模式群集部署(二)
LVS负载均衡DR模式群集部署(二)