实现基于LVS负载均衡集群的电商网站架构

简介:

实现基于LVS负载均衡集群的电商网站架构


具体如何实现电商网站请参看博客:http://13150617.blog.51cto.com/13140617/1978954


实验一、实现基于NAT模式的LVS负载均衡:

dc2b357d2b0a7a14f87ae579e3705846.png

准备三台主机:一台Director(桥接网卡、仅主机网卡):

              DIP:192.168.199.145 VIP:172.17.111.117

         一台后台服务器仅主机):RIP:192.168.199.146  配置有电商网站

         一台后台服务器仅主机):RIP:192.168.199.143  配置有电商网站

步骤:

一、Director上操作:

     ①安装ipvsadm:

     yum install ipvsadm  

     ②查看内核是否支持ipvs模块:

     grep -i -C 10 "ipvs" /boot/config-3.10.0-514.el7.x86_64

     ③加三条记录:

      开启一个基于80端口的虚拟服务,调度方式为wrr

     ipvsadm -A -t 172.17.111.117:80 -s wrr 

      配置web服务后端real server为nat工作方式,权重为1

     ipvsadm -a -t 172.17.111.117:80 -r 192.168.199.146:80 -m -w 1

     ipvsadm -a -t 172.17.111.117:80 -r 192.168.199.143:80 -m -w 1

b5d9da77633d427ac72b91422b064ab3.jpg 

     ④开启路由转发 vim /etc/sysctl.conf

                    net.ipv4.ip_forward=1

                sysctl -p

二、两个后台服务器上操作:

     添加路由route add default gw 192.168.199.145

99c144b96d0d117c00c6504523de84d9.jpg 

三、浏览器访问:http://172.17.111.117

b6f6b6fd8b37dc2db57371f90b992abf.jpg 

测试:分别在两台后端服务器上建立html页面,测试负载均衡

   客户端访问:curl http://172.17.111.117/index.html

fc973c66483f873e81b78a153309f560.jpg 

 

实验二、实现基于DR模式的LVS负载均衡

b9eca23f1fc39846d6f057047ee2fcf8.png

准备三台主机:都是桥接模式

      一台Director,DIP:172.17.111.117 VIP:172.17.111.111

        一台后台服务器,RIP:172.17.111.234 VIP:172.17.111.111

        一台后台服务器,RIP:172.17.111.222 VIP:172.17.111.111

步骤:

一、Director上操作: 

   ①安装ipvsadm:

     yum install ipvsadm  

 ②查看内核是否支持ipvs模块:

     grep -i -C 10 "ipvs" /boot/config-3.10.0-514.el7.x86_64

    ③配置VIP到本地网卡别名eth0:0上,并只广播自己:

ifconfig eth0:0 172.17.111.111 broadcast 172.17.111.111 netmask 255.255.255.255 up

d3cc334674e8eb877d9f8545ed8163a0.jpg 

    ④添加路由:route add -host 172.17.111.111 dev eth0:0

ee21fa26b645c5fd75845f376ebd4711.jpg 

    ⑤添加三条记录:

  开启一个基于80端口的虚拟服务,调度方式wrr

  ipvsadm -A -t 172.17.111.111:80 -s wrr

  配置web服务后端real server DR工作方式,权重为1

  ipvsadm -a -t 172.17.111.111:80 -r 172.17.111.234:80 -g -w 1

  ipvsadm -a -t 172.17.111.111:80 -r 172.17.111.222:80 -g -w 1

67a0ef3d1be741954fe61d571ac625fa.jpg 

二、后台服务器上操作:

  ①配置VIP到本地回环网卡lo上,并只广播自己:

ifconfig lo:0 172.17.111.111 broadcast 172.17.111.111 netmask 255.255.255.255 up

f6243280774445584641582cdaf50c9a.jpg 

  ②配置本地回环网卡路由:

  route add -host 172.17.111.111 lo:0

a30083ebb0528fefda57b489277b51ec.jpg 

  ③忽略ip与mac不匹配的问题:

   echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore

   echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce

   echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore

   echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce

三、测试:分别在两台后端服务器上建立html页面,测试负载均衡

   客户端访问:curl http://172.17.111.111/index.html

af18fa177fb206840b9eaaec64638383.jpg 

 

实验三、实现LVS持久连接(基于上面的DR实验):

功能:无论ipvs使用何种scheduler,其都能够实现在指定时间范围内始终将来自同一个ip地址的请求发往同一个RS;此功能是通过lvs持久连接模板实现,其与调度方法无关。

步骤:

①在iptables打上标记,把80端口标记为99 

iptables -t mangle -A PREROUTING -d 172.17.111.111 -p tcp --dport 80 -j MARK --set-mark 99

②在iptables打上标记,把443端口标记为99

iptables -t mangle -A PREROUTING -d 172.17.111.111 -p tcp --dport 443 -j MARK --set-mark 99

③清除之前的虚拟服务器表的记录:ipvsadm -C

④在lvs上建立基于99号标记的虚拟服务

ipvsadm -A -f 99 -s rr -p

⑤设置后端服务地址

ipvsadm -a -f 99 -r 172.17.111.234 -g

ipvsadm -a -f 99 -r 172.17.111.222 -g

⑥测试:使用不同主机测试,同一主机访问到页面的不变

c45861c05608b1c6b0028fe72ab80ec9.jpg 94e9f11b1735c0dd1f067ac7de3e10b1.jpg

实验四、实现健康状态监测(基于上面DR和持久连接的实验):

一、安装工具包:

rz ldirectord-3.9.6-0rc1.1.1.x86_64.rpm

yum localinstall ldirectord-3.9.6-0rc1.1.1.x86_64.rpm

二、编辑配置文件:

拷贝配置文件模板

  cp /usr/share/doc/ldirectord-3.9.6/ldirectord.cf /etc/ha.d/ 

编辑配置文件,修改下面几行

  vim /etc/ha.d/ldirectord.cf  

        quiescent=no    

no表示删除检测不过关的realserver记录,yes表示设置其权重为0而不是删除记录。

        virtual=172.17.111.111:80

        real=172.17.111.234:80 gate 2       2表示权重

        real=172.17.111.222:80 gate 2       

        scheduler=wrr

        request="ok.html"

        receive="ok"

三、清除虚拟服务器表的所有记录:ipvsadm -C

四、启动服务:systemctl start ldirectord。会自动生成虚拟服务器表

7879722fe3d8aa08860f975f6cec9a6c.jpg 

六、在realserver后端服务器上准备ok.html页面,内容为ok。

2c6e72d324f1bc94d2aae564da4c5e8f.jpg 

七、测试:当修改其中一个realserver的ok.html时,虚拟服务器表中就少了该机器的记录,而且客户端访问时也不访问该机器了。

fc3b3df8d60d74ee3d2ac088278499dc.jpg 

e6858a35fce68c7d50951f70661153c1.jpg 

当ok.html页面恢复后,虚拟服务器表中的记录就又添加了,而且客户端也能访问到该服务器了

c91d4b520938151f9609dbb7d2d59d5a.jpg

4f78d6a8ffb9f13a3f4dd74f47595a1f.jpg


感谢浏览,如有疑问,欢迎留言。

j_0080.gif



















本文转自lc0108131451CTO博客,原文链接:http://blog.51cto.com/13150617/1979019 ,如需转载请自行联系原作者



相关实践学习
部署高可用架构
本场景主要介绍如何使用云服务器ECS、负载均衡SLB、云数据库RDS和数据传输服务产品来部署多可用区高可用架构。
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
相关文章
|
4天前
|
机器学习/深度学习 NoSQL Redis
Redis高可用之集群架构(第三部分)
Redis高可用之集群架构(第三部分)
|
3天前
|
缓存 负载均衡 监控
探索分布式系统演进之路:从负载均衡到微服务架构
小米分享了分布式系统的发展,从早期的负载均衡(入口级、网关和客户端)到微服务架构的演进。微服务实现服务解耦,增强系统弹性,但带来了新的挑战。为优化数据库性能,实施了主备读写分离、全文搜索引擎、缓存集群等措施。通过微服务治理,如服务注册、动态配置、灰度发布等,提升了系统稳定性和可靠性。未来将继续优化分布式系统,提供更好的服务体验。关注公众号“软件求生”了解更多。
26 6
|
4天前
|
Kubernetes API 调度
Kubernetes学习-核心概念篇(二) 集群架构与组件
Kubernetes学习-核心概念篇(二) 集群架构与组件
|
4天前
|
存储 监控 关系型数据库
关系型数据库设计集群架构节点规划
【5月更文挑战第6天】在实际项目中,可能还需要考虑其他因素,如安全性、合规性、成本等。因此,在进行关系型数据库设计集群架构节点规划时,建议与经验丰富的数据库管理员和架构师合作,以确保项目的成功实施和稳定运行。
22 4
关系型数据库设计集群架构节点规划
|
4天前
|
存储 负载均衡 关系型数据库
关系型数据库设计集群架构架构选择
【5月更文挑战第6天】还可以考虑使用现有的数据库管理系统(DBMS)提供的集群解决方案,如MySQL的InnoDB Cluster、PostgreSQL的Streaming Replication和Patroni等。这些解决方案已经经过了广泛测试和验证,可以大大降低集群架构设计和实现的难度。
18 1
关系型数据库设计集群架构架构选择
|
4天前
|
分布式计算 负载均衡 关系型数据库
关系型数据库设计集群架构需求分析
【5月更文挑战第6天】关系型数据库设计集群架构的需求分析是一个综合考虑业务需求、性能、可用性、可扩展性、数据一致性、安全性、成本效益和技术选型等多个方面的过程。通过深入分析和评估,可以设计出满足业务需求且高效可靠的数据库集群架构。
20 3
关系型数据库设计集群架构需求分析
|
4天前
|
缓存 监控 负载均衡
关系型数据库设计集群架构
【5月更文挑战第5天】关系型数据库设计集群架构
20 3
关系型数据库设计集群架构
|
4天前
|
关系型数据库 MySQL 数据库
MySQL集群 双主架构(配置命令)
MySQL集群 双主架构(配置命令)
|
4天前
|
运维 负载均衡 监控
keepalived+LVS实现高可用性集群
通过结合keepalived和LVS,你可以创建一个高可用性的负载均衡集群,确保服务器的稳定性和性能。这对于托管Web服务、应用服务器等关键服务的服务器集群非常有用。
39 1
|
4天前
|
负载均衡 算法 网络协议
LVS、Nginx和HAProxy负载均衡器对比总结
LVS、Nginx和HAProxy负载均衡器对比总结