LVS DR + Keepalived 负载均衡配置详解(测试篇)

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
传统型负载均衡 CLB,每月750个小时 15LCU
应用型负载均衡 ALB,每月750个小时 15LCU
简介:

 一、启动服务

1、在每台RS(真实服务器)上绑定LVS的虚拟IP及抑制ERP


 
 
  1. [root@LVS_RS_104 ~]# /etc/rc.d/init.d/lvs_dr.sh start 
  2. RealServer Start OK 
  3. [root@LVS_DR_103 ~]# /etc/rc.d/init.d/lvs_dr.sh start 
  4. RealServer Start OK 

2、启动LVS主的Keepalived服务 并查看日志 /var/log/messages


 
 
  1. [root@LVS_Master_101 ~]# /etc/rc.d/init.d/keepalived start 
  2. 正在启动 keepalived:                                      [确定] 
  3. [root@LVS_Master_101 ~]# tail -f  /var/log/messages 
  4. Jan 22 04:06:28 centos1 Keepalived_healthcheckers: Using MII-BMSR NIC polling thread... 
  5. Jan 22 04:06:28 centos1 Keepalived_healthcheckers: Netlink reflector reports IP 192.168.1.101 added 
  6. Jan 22 04:06:28 centos1 Keepalived_healthcheckers: Registering Kernel netlink reflector 
  7. Jan 22 04:06:28 centos1 Keepalived_healthcheckers: Registering Kernel netlink command channel 
  8. Jan 22 04:06:29 centos1 Keepalived_vrrp: VRRP_Instance(VI_1) Transition to MASTER STATE 
  9. Jan 22 04:06:30 centos1 Keepalived_vrrp: VRRP_Instance(VI_1) Entering MASTER STATE 
  10. Jan 22 04:06:30 centos1 Keepalived_vrrp: VRRP_Instance(VI_1) setting protocol VIPs. 
  11. Jan 22 04:06:30 centos1 Keepalived_vrrp: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth0 for 192.168.1.181 
  12. Jan 22 04:06:30 centos1 Keepalived_vrrp: Netlink: skipping nl_cmd msg... 
  13. Jan 22 04:06:30 centos1 avahi-daemon[1261]: Registering new address record for 192.168.1.181 on eth0.IPv4. 

3、启动备的Keeplived服务,并查看日志


 
 
  1. [root@LVS_Backup_114 ~]# /etc/rc.d/init.d/keepalived start 
  2. 正在启动 keepalived:                                      [确定] 
  3. [root@LVS_Backup_114 ~]# cat /var/log/messages  
  4. Jan 22 04:17:29 test Keepalived: Starting Keepalived v1.1.17 (01/13,2013) 
  5. Jan 22 04:17:29 test Keepalived: Starting Healthcheck child process, pid=1528 
  6. Jan 22 04:17:29 test Keepalived: Starting VRRP child process, pid=1529 
  7. Jan 22 04:17:29 test Keepalived_vrrp: Using MII-BMSR NIC polling thread... 
  8. Jan 22 04:17:29 test Keepalived_healthcheckers: Using MII-BMSR NIC polling thread... 
  9. Jan 22 04:17:29 test Keepalived_healthcheckers: Netlink reflector reports IP 192.168.1.114 added 
  10. Jan 22 04:17:29 test Keepalived_vrrp: Netlink reflector reports IP 192.168.1.114 added 
  11. Jan 22 04:17:29 test Keepalived_healthcheckers: Registering Kernel netlink reflector 
  12. Jan 22 04:17:29 test Keepalived_healthcheckers: Registering Kernel netlink command channel 
  13. Jan 22 04:17:29 test Keepalived_vrrp: Registering Kernel netlink reflector 
  14. Jan 22 04:17:29 test Keepalived_vrrp: Registering Kernel netlink command channel 
  15. Jan 22 04:17:29 test Keepalived_vrrp: Registering gratutious ARP shared channel 
  16. Jan 22 04:17:29 test Keepalived_vrrp: Opening file '/etc/keepalived/keepalived.conf'.  #打开Keepalived的主配置文件
  17. Jan 22 04:17:29 test Keepalived_vrrp: Configuration is using : 62711 Bytes 
  18. Jan 22 04:17:29 test Keepalived_vrrp: VRRP_Instance(VI_1) Entering BACKUP STATE  #进入备 角色
  19. Jan 22 04:17:29 test Keepalived_vrrp: VRRP sockpool: [ifindex(2), proto(112), fd(10,11)] 

4、使用ipvsadm -Ln查看状态


 
 
  1. [root@LVS_Master_101 ~]# ipvsadm  
  2. IP Virtual Server version 1.2.1 (size=4096)  
  3. Prot LocalAddress:Port Scheduler Flags  
  4.   -> RemoteAddress:Port           Forward Weight ActiveConn InActConn  
  5. TCP  192.168.1.181:http rr persistent 50  
  6.   -> 192.168.1.104:http           Route   1      0          0           
  7.   -> 192.168.1.103:http           Route   1      0          0   

如果输出和上面的一致表明 LVS + Keepalived安装配置成功。接下来测试负载均衡和高可用。

二、测试负载均衡

1、在192.168.1.103和192.168.1.104上分别执行如下命令(在这里放不同的内容是为了方便测试,在生产环境中内容应该是相同的):


 
 
  1. 在192.168.1.103上执行下面命令 
  2. [root@LVS_RS_104 ~]# echo "The is server 103" >/var/www/html/index.html 
  3. 在192.168.1.104上执行下面命令 
  4. [root@LVS_DR_103 ~]# echo "The is server 104" >/var/www/html/index.html 

2、用两个不同的浏览器访问 http://192.168.1.181

我们看到上面两个浏览器访问到的是不同的RS服务器,负载均衡测试完成。

三、测试高可用:

1、关闭主LVS的Keepalived服务,查看备LVS的日志

 

[root@LVS_Master_101 ~]# /etc/rc.d/init.d/keepalived stop

停止 keepalived:                                          [确定]

 


 
 
  1. [root@LVS_Backup_114 ~]# cat /dev/null >/var/log/messages  
  2. [root@LVS_Backup_114 ~]# tail -f /var/log/messages  
  3. Jan 22 04:41:09 test Keepalived_vrrp: VRRP_Instance(VI_1) Transition to MASTER STATE  #在没收到主LVS的心跳检测后过度到主
  4. Jan 22 04:41:10 test Keepalived_vrrp: VRRP_Instance(VI_1) Entering MASTER STATE  #进入主的角色
  5. Jan 22 04:41:10 test Keepalived_vrrp: VRRP_Instance(VI_1) setting protocol VIPs. #设置虚VIP协议
  6. Jan 22 04:41:10 test Keepalived_healthcheckers: Netlink reflector reports IP 192.168.1.181 added  #添加192.168.1.181IP地址
  7. Jan 22 04:41:10 test avahi-daemon[1180]: Registering new address record for 192.168.1.181 on eth0.IPv4.  #将192.168.1.181绑定到eth0上
  8. Jan 22 04:41:10 test Keepalived_vrrp: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth0 for 192.168.1.181  #
  9. Jan 22 04:41:10 test Keepalived_vrrp: Netlink: skipping nl_cmd msg... 

2、启动主LVS的Keepalived服务,查看备节点的日志

 

[root@LVS_Master_101 ~]# /etc/rc.d/init.d/keepalived start

正在启动 keepalived:                                      [确定]

查看备的日志如下

 

[root@LVS_Backup_114 ~]# tail -f /var/log/messages 

Jan 22 04:47:42 test Keepalived_vrrp: VRRP_Instance(VI_1) Received higher prio advert

Jan 22 04:47:42 test Keepalived_vrrp: VRRP_Instance(VI_1) Entering BACKUP STATE

Jan 22 04:47:42 test Keepalived_vrrp: VRRP_Instance(VI_1) removing protocol VIPs.

Jan 22 04:47:42 test Keepalived_healthcheckers: Netlink reflector reports IP 192.168.1.181 removed

Jan 22 04:47:42 test avahi-daemon[1180]: Withdrawing address record for 192.168.1.181 on eth0.

Jan 22 04:47:42 test Keepalived_vrrp: Netlink: skipping nl_cmd msg...

在主LVS挂掉以后,备LVS会接替主节点的工作,主LVS起来以后,备LVS会把工作交给主节点

 

 

本文转自1594cqb 51CTO博客,原文链接:http://blog.51cto.com/wolfchen/1123498,如需转载请自行联系原作者

相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
相关文章
|
7月前
|
负载均衡 前端开发 JavaScript
LVS-DR模式、keepalived、Nginx与Tomcat合作,打造动静分离,高效负载均衡与高可用性
为了采用这样的架构,你需要对LVS-DR、Keepalived、Nginx与Tomcat有一定的理解和掌握,同时也需要投入一些时间去研究和配置,但是一旦你把它运行起来,你将会发现,这一切都是值得的。
273 11
|
10月前
|
负载均衡 网络协议 Linux
LVS,软负载均衡
LVS(Linux Virtual Server)是一项广泛应用的负载均衡技术,由章文嵩博士于1998年发起,自Linux 2.4.24版本起成为官方内核的一部分。LVS通过四层负载均衡技术实现高性能、高可用的服务器集群,支持多种调度算法和工作模式(如D-NAT、full-NAT、IP隧道、DR),适用于HTTP、数据库等应用。相比7层负载均衡器(如Nginx、HAProxy),LVS具有更高的并发处理能力和更低的资源消耗,适合大规模流量分发。本期文章详细介绍了LVS的工作原理、优势与不足,并对比了常见的负载均衡产品,帮助读者根据具体需求选择合适的解决方案。
1274 5
LVS,软负载均衡
|
12月前
|
域名解析 弹性计算 监控
slb测试基本配置检查
slb测试基本配置检查
305 60
|
12月前
|
负载均衡 算法 Linux
LVS+Keepalived:实现高效软负载均衡的利器
本文介绍了如何使用LVS(Linux Virtual Server)和Keepalived搭建高可用负载均衡集群。LVS通过不同调度算法将请求转发给后端服务器,而Keepalived基于VRRP协议实现服务高可用,避免IP单点故障。具体步骤包括环境准备、安装配置ipvsadm和Keepalived、启动服务及测试。文中还详细解释了配置文件中的关键参数,并提供了故障转移测试方法。最后,文章简要对比了软件、硬件和云负载均衡方案的特点,帮助读者选择合适的负载均衡策略。
1622 4
|
12月前
|
监控 测试技术
slb测试会话保持功能
slb测试会话保持功能
376 6
|
12月前
|
监控 负载均衡 容灾
slb测试配置
slb测试配置
338 5
|
12月前
|
弹性计算 负载均衡 监控
slb测试健康检查
slb测试健康检查
194 4
|
运维 负载均衡 网络协议
LVS+Keepalived 负载均衡
LVS+Keepalived 负载均衡
348 8
LVS+Keepalived 负载均衡
|
存储 数据采集 分布式计算
Hadoop-17 Flume 介绍与环境配置 实机云服务器测试 分布式日志信息收集 海量数据 实时采集引擎 Source Channel Sink 串行复制负载均衡
Hadoop-17 Flume 介绍与环境配置 实机云服务器测试 分布式日志信息收集 海量数据 实时采集引擎 Source Channel Sink 串行复制负载均衡
241 1
|
域名解析 运维 负载均衡
LVS+Keepalived 负载均衡(二)28-1
【8月更文挑战第28天】LVS+Keepalived 负载均衡 配置 LVS VIP
242 5

相关实验场景

更多