LVS负载均衡群集

本文涉及的产品
文件存储 NAS,50GB 3个月
简介: LVS负载均衡群集

       在各种互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器将难以承担所有的访问。出来使用价格昂贵的大型机、专用负载分流设备意外,企业还有另为一种选择来解决难题,那就是构建群集服务器——通过整合多台相对廉价的普通服务器,以同一个地址对外提供相同的服务。本章将要学习在企业中常用的一种群集技术——LVS(Linux Virtual Server,Linux虚拟服务器)。

LVS群集应用基础

       本章将对群集的结构、工作模式、LVS虚拟应用,以及NFS共享存储。

  • 群集的类型
  1. 负载均衡群集(Load Balance Cluster):以提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标、获得高并发、高负载的整体性能。
  2. 高可用群集(High Availability Cluster):以提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连接性,达到高可用的容错效果。
  3. 高性能运算群集(High Performance Computer Cluster):以提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算能力。
  • 负载均衡的分层结构

       在典型的负载均衡群集中,包括三个层次的组件,如下图所示。前端至少有一个负载均衡调度器负责响应并分发来自客户机的请求;后端由大量真实服务器构成服务器池,提供实际的应用服务,整个群集的伸缩性通过增加、删除服务器节点来完成,而这些过程对客户机是透明的;为了保持服务的一致性,所有节点使用共享存储设备。

  1. 第一层,负载调度器(Load Balancer或Director),这是访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP(Virtual IP,虚拟IP)地址,也称为群集IP地址。通常会配置主、备两台调度器实现热备份,当主调度器失效以后平滑替换至备用调度器,确保高可用性。
  2. 第二层,服务器池(Server Pool),群集所提供的应用服务由服务器池承担,其中每个节点具有独立的RIP(Real IP,真实IP)地址,只处理调度器发过来的客户机请求。当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后在重新纳入服务器池。
  3. 第三层,共享存储(Share Storage),为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的唯一性。在Linux/Unix环境 中,共性存储可以 使用NAS设备,或者提供NFS(Network File System,网络文件系统)共享服务的专用服务器。
  • 负载均衡的工作模式

       关于群记得负载调度技术,可以基于IP、端口、内容等进行分发,其中基于IP的负载调度是效率最高的。基于IP的发在均衡模式中,常见的有地址转换、IP隧道和直接路由三种工作模式。

  1. 地址转换(NAT)模式,类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口。服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式。
  2. IP隧道(TUN)模式,采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器。服务器节点分散在互联网中的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信。
  3. 直接路由(DR)模式,采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络。负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道。

LVS虚拟服务器

       Linux Virtual Server 是针对Linux内核的负载均衡解决方案,1998年5月,由我国的章文嵩博士创建,官方网站:The Linux Virtual Server Project - Linux Server Cluster for Load Balancing

       LVS现在已成为Linux内核的一部分,默认编译味ip_vs模块,必要时能够自动调用。在Centos7系统中,以下操作可以手动加载ip_vs模块,并查看当前系统中ip_vs模块的版本信息。

1. [root@localhost ~]# modprobe ip_vs                              //加载ip_vs模块     
2. [root@localhost ~]# cat /proc/net/ip_vs                         //查看ip_vs版本信息
3. IP Virtual Server version 1.2.1 (size=4096)
4. Prot LocalAddress:Port Scheduler Flags
5.   -> RemoteAddress:Port Forward Weight ActiveConn InActConn
  • LVS的负载调度算法
  1. 轮询(Round Robin):将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器),均等得对待每台服务器,而不管服务器实际的连接数和系统负载。
  2. 加权轮询(Weighted Round Robin):根据真实服务器的处理能力轮流分配收到的访问请求,调度器可以自动查询各节点的负载情况,并动态调整其权重。这样可以保证处理能力强的服务器承担跟多的访问流量。
  3. 最少连接(Least Connections):根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点。如果所有的服务器节点性能相近,采用这种方式可以更好地均衡负载。
  4. 加权最少连接(Weighted Least Connections):在服务器节点的性能差异较大的情况下,可以为真实服务器自动调整权重,权重较高的节点将承担更大比例的活动连接负载。
  • 使用ipvsadm管理工具

       ipvsadm是在负载调度器上使用的LVS群集管理工具,通过调用ip_vs模块来添加、删除服务器节点,以及查看群集的运行状态。在Centos7系统中,需要手动安装ipvsadm.x86_64 0:1.27-7el7软件包。

1. [root@localhost ~]# yum -y install ipvsadm
2. [root@localhost ~]# ipvsadm -v
3. ipvsadm v1.27 2008/5/15 (compiled with popt and IPVS v1.2.1)
  • 创建虚拟服务器

       -A表示添加虚拟服务器,-t用来指定VIP地址及TCP端口,-s用来指定负载调度算法{轮询(rr),加权轮询(wrr),最少连接(lc),加权最少连接(wlc)}

[root@localhost ~]# ipvsadm -A -t 192.168.1.10:80 -s rr
  • 添加服务器节点

       -a表示添加真实服务器,-t用来指定VIP地址及TCP端口,-r用来指定RIP地址及TCP端口,-m表示使用NAT群集模式(-g DR模式和-i TUN模式),-w用来设置权重(权重为0时表示暂停节点),若希望使用保持连接,还应添加"-p 60"选项(60为保持时间,单位为s)。为虚拟服务器192.168.1.10添加四个服务器节点,IP地址依次为192.168.1.1~4,操作如下。

1. [root@localhost ~]# ipvsadm -a -t 192.168.1.10:80 -r 192.168.1.1:80 -m -w 1
2. [root@localhost ~]# ipvsadm -a -t 192.168.1.10:80 -r 192.168.1.2:80 -m -w 1
3. [root@localhost ~]# ipvsadm -a -t 192.168.1.10:80 -r 192.168.1.3:80 -m -w 1
4. [root@localhost ~]# ipvsadm -a -t 192.168.1.10:80 -r 192.168.1.4:80 -m -w 1
  • 查看群集节点状态

       -l选项可以猎豹查看LVS虚拟服务器,可以指定只查看某一个VIP地址(默认查看所有),结合-n选项将以数字形式显示地址、端口等信息。

1. [root@localhost ~]# ipvsadm -ln
2. IP Virtual Server version 1.2.1 (size=4096)
3. Prot LocalAddress:Port Scheduler Flags
4.   -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
5. TCP  192.168.1.10:80 rr
6.   -> 192.168.1.1:80               Masq    1      0          0        
7.   -> 192.168.1.2:80               Masq    1      0          0        
8.   -> 192.168.1.3:80               Masq    1      0          0        
9.   -> 192.168.1.4:80               Masq    1      0          0

       上述输出结果中,Forward列下的Masq对应Masquerade(地址伪装),表示采用的群集模式为NAT,如果是Route,则表示采用的群集模式为DR。

  • 删除服务器节点

       -d选项表示删除服务器池中的某一节点,执行删除操作必须指定目标对象,包括节点地址、虚拟IP地址。需要删除整个虚拟服务器时,使用选型-D并指定虚拟IP地址极客,无需指定节点"ipvsadm -D -t 192.168.1.10:80"。例如,执行以下操作可以删除LVS群集192.168.1.10中的节点192.168.1.1。

[root@localhost ~]# ipvsadm -d -r 192.168.1.1:80 -t 192.168.1.10:80
  • 保存负载分配策略

       使用导出/导入工具ipvsadm-save/ipvsadm-restore可以保存、恢复LVS策略。也可以快速清除、重建负载分配策略。

1. [root@localhost ~]# ipvsadm-save > /etc/sysconfig/ipvsadm           //保存策略
2. [root@localhost ~]# cat /etc/sysconfig/ipvsadm                      //确认保存结果
3. -A -t 192.168.1.10:http -s rr
4. -a -t 192.168.1.10:http -r 192.168.1.2:http -m -w 1
5. -a -t 192.168.1.10:http -r 192.168.1.3:http -m -w 1
6. -a -t 192.168.1.10:http -r 192.168.1.4:http -m -w 1
7. [root@localhost ~]# systemctl stop ipvsadm                          //停止服务(清除策略)
8. [root@localhost ~]# systemctl start ipvsadm                         //启动服务(重建规则)

NFS共享存储服务

       NFS是一种基于TCP/IP传输的网络文件系统协议,最初由Sun公司开发。通过使用NFS协议,客户机可以像访问本地目录一样访问远程服务器中的共享资源。对于大多数负载均衡群集来说,使用NFS协议来共享数据存储是比较常见的做法,NFS也是NAS存储设备必然支持的一种协议。

1.使用NFS发布共享资源

       NFS服务的实现依赖于RPC(Remote Process Call,远端过程调用)机制,以完成远程到本地的映射过程。

  • 安装nfs-utils、rpcbind软件包
1. [root@localhost ~]# yum -y install nfs-utils rpcbind            //默认已经安装
2. 已加载插件:fastestmirror, langpacks
3. Loading mirror speeds from cached hostfile
4. 软件包 1:nfs-utils-1.3.0-0.33.el7.x86_64 已安装并且是最新版本
5. 软件包 rpcbind-0.2.0-38.el7.x86_64 已安装并且是最新版本
6. 无须任何处理
7. [root@localhost ~]# systemctl enable nfs
8. Created symlink from /etc/systemd/system/multi-user.target.wants/nfs-server.service to /usr/lib/systemd/system/nfs-server.service.
9. [root@localhost ~]# systemctl enable rpcbind
  • 设置共享目录

       NFS的配置文件为/etc/exports,文件内容默认为空(无任何共享)。在exports文件中设置共享资源时,记录格式为“目录位置 客户机地址(权限选项)”。例如,若要将文件夹/opt/wwwroot共享给192.168.1.0/24网段使用,允许读写操作,具体配置如下。

1. [root@localhost ~]# mkdir -p /opt/wwwroot
2. [root@localhost ~]# vim /etc/exports
3. /opt/wwwroot 192.168.2.0/24(rw,sync,no_root_squash)

       其中客户机地址可以是主机名、IP地址、网段地址、允许使用*、?通配符;权限选项中的rw表示允许读写(ro为只读),sync表示是同步写入,no_root_squash表示当客户机以root身份访问时赋予本地root权限(默认是root_squash,将作为nfsnobody用户降权对待)。

       当需要将同一个目录共享给同不同的客户机,且分配不同的权限时,只要以空格分隔指定多个“客户机(权限选项)”即可。例如,以下操作将/var/ftp/public目录共享给两个客户机,并分别给予只读、读写权限。

1. [root@localhost ~]# vim /etc/exports
2. /var/ftp/pub    192.168.14.11(ro) 192.168.4.111(rw)
  • 启动NFS服务程序
1. [root@localhost ~]# systemctl restart rpcbind
2. [root@localhost ~]# systemctl restart nfs
3. [root@localhost ~]# netstat -anpu | grep rpcbind
4. udp        0      0 0.0.0.0:824             0.0.0.0:*                           6161/rpcbind        
5. udp        0      0 0.0.0.0:111             0.0.0.0:*                           6161/rpcbind        
6. udp6       0      0 :::824                  :::*                                6161/rpcbind        
7. udp6       0      0 :::111                  :::*                                6161/rpcbind
  • 查看本机发布的NFS共享目录并创建一个测试网页
1. [root@localhost ~]# showmount -e
2. Export list for localhost.localdomain:
3. /opt/wwwroot 192.168.2.0/24
4. [root@localhost ~]# echo 66666 > /opt/wwwroot/index.html

2.客户机访问NFS共享资源

       NFS协议的目标是提供一种网络文件系统,因此对NFS共享的访问也使用mount命令来挂载,对应的文件系统类型为nfs。既可以手动挂载,也可以加入fstab配置文件来实现开机自动挂载。考虑到群集系统中的网络稳定性,NFS服务器与客户机之间最好使用专有网络进行连接。

  • 安装rpcbind软件包,并启动rpcbind服务(在web或需要共享的主机上配置)
1. [root@localhost ~]# yum -y install rpcbind nfs-utils            //默认已经安装
2. 已加载插件:fastestmirror, langpacks
3. Loading mirror speeds from cached hostfile
4. 软件包 rpcbind-0.2.0-38.el7.x86_64 已安装并且是最新版本
5. 软件包 1:nfs-utils-1.3.0-0.33.el7.x86_64 已安装并且是最新版本
6. 无须任何处理
7. [root@localhost ~]# systemctl enable rpcbind 
8. [root@localhost ~]# systemctl restart rpcbind

       如果安装了nfs-utils软件包,则客户机也可以使用showmount查看NFS服务器端共享了那些目录,查询格式为“showmount -e 服务器地址”。

1. [root@localhost ~]# showmount -e 192.168.2.1
2. Export list for 192.168.2.1:
3. /opt/wwwroot 192.168.2.0/
  • 手动挂载NFS共享目录

       以root用户身份执行mount操作,将NFS服务器共享的/opt/wwwroot目录挂载到本地目录/var/www/html。与挂载本地文件系统不同的是,设备位置处应指出服务器地址。

1. [root@localhost ~]# mount 192.168.2.1:/opt/wwwroot /var/www/html
2. mount.nfs: access denied by server while mounting 192.168.2.1:/opt/wwwroot
3. [root@localhost ~]# tail -1 /etc/mtab
4. /dev/sr0 /media iso9660 ro,relatime 0 0
5. [root@localhost ~]# vim /var/www/html/index.html
6. 111111111

       完成挂载以后,访问客户机的/var/www/html文件夹,实际上就相当于访问NFS服务器中的/opt/wwwroot文件夹,其中的网络映射过程对于用户程序来说是透明的。例如,上述操作中创建的index.html测试文件,会立刻出现在服务器的/opt/wwwroot/目录下。

  • fstab自动挂载设置

       修改/etc/fstab配置文件,加入NFS共享目录的挂载设置。注意将文件系统类型设为nfs,挂载参数建议添加_netdev(设备需要网络);若添加soft、intr参数可以实现软挂载,允许在网络中断时放弃挂载。这样客户机就可以在每次开机后自动挂载NFS共享资源了。

1. [root@localhost ~]# vim /etc/fstab
2. 192.168.2.1:/opt/wwwroot /var/www/html nfs defaults,_netdev 0 0

构建LVS负载均衡群集

       本节讲义构建LVS负载均衡群集为例,分别介绍两种群集模式——LVS-NAT和LVS-DR,且讲解独立的两个案例。

案例1:地址转换模式(LVS-NAT)

准备案例环境

       在NAT模式的群集中,LVS负载调度器是所有节点访问Internet的网关服务器,其外网地址200.0.0.1同时也作为整个群集的VIP地址。LVS调度器具有两块网卡,分别连接内外网。

       如上图配置IP地址,关闭防火墙、selinux。对于LVS负载调度器来说,需要开启路由转发规则,以便节点服务器能够访问Internet。所有的节点服务器、共享存储均位于私有网络内,其默认网关设为LVS负载调度器的内网地址192.168.1.1。

配置负载调度器

  • LVS主机开启路由转发功能
1. [root@localhost ~]# vim /etc/sysctl.conf
2. net.ipv4.ip_forward = 1
3. [root@localhost ~]# sysctl -p
4. net.ipv4.ip_forward = 1
  • 配置负载分配策略
1. [root@localhost ~]# modprobe ip_vs                                      //加载ip_vs模块
2. [root@localhost ~]# mount /dev/cdrom /media                             //挂载系统盘
3. mount: /dev/sr0 is write-protected, mounting read-only
4. [root@localhost ~]# yum -y install ipvsadm
5. [root@localhost ~]# ipvsadm -C                                          //清除原有策略
6. [root@localhost ~]# ipvsadm -A -t 200.0.0.1:80 -s rr
7. [root@localhost ~]# ipvsadm -a -t 200.0.0.1:80 -r 192.168.1.2:80 -m -w 1
8. [root@localhost ~]# ipvsadm -a -t 200.0.0.1:80 -r 192.168.1.3:80 -m -w 1
9. [root@localhost ~]# ipvsadm-save                                        //保存策略
10. -A -t localhost.localdomain:http -s rr
11. -a -t localhost.localdomain:http -r 192.168.1.2:http -m -w 1
12. -a -t localhost.localdomain:http -r 192.168.1.3:http -m -w 1
13. [root@localhost ~]# systemctl enable ipvsadm
14. Created symlink from /etc/systemd/system/multi-user.target.wants/ipvsadm.service to /usr/lib/systemd/system/ipvsadm.service.
15. [root@localhost ~]# ipvsadm -ln                                         //查看节点状态
16. IP Virtual Server version 1.2.1 (size=4096)
17. Prot LocalAddress:Port Scheduler Flags
18.   -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
19. TCP  200.0.0.1:80 rr
20.   -> 192.168.1.2:80               Masq    1      0          0        
21.   -> 192.168.1.3:80               Masq    1      0          0

配置节点服务器

  • 两台web主机安装httpd,创建测试网页
1. [root@localhost ~]# yum -y install httpd
2. [root@localhost ~]# echo 111111 > /var/www/html/index.html          //测试网页,为了测试效果,第二台web主机设置为22222
3. [root@localhost ~]# systemctl start httpd
4. [root@localhost ~]# systemctl enable httpd
5. Created symlink from /etc/systemd/system/multi-user.target.wants/httpd.service to /usr/lib/systemd/system/httpd.service.

测试LVS群集

       测试机200.0.0.1上,从internet中直接访问http://200.0.0.1 ,将能够看到由真实服务器提供的网页内容——如果各节点的网页不同,则不同客户机看到的网页也不一样(多刷新几次,有延迟或打开两个页面直接访问)

NFS主机做共享

详细配置参数参考前面NFS共享存储服务

  • 使用NFS发布共享资源
1. [root@localhost ~]# systemctl enable nfs
2. Created symlink from /etc/systemd/system/multi-user.target.wants/nfs-server.service to /usr/lib/systemd/system/nfs-server.service.
3. [root@localhost ~]# systemctl enable rpcbind
4. [root@localhost ~]# mkdir -p /opt/wwwroot
5. [root@localhost ~]# vim /etc/exports                                    //设置共享目录
6. /opt/wwwroot 192.168.2.0/24(rw,sync,no_root_squash)
7. [root@localhost ~]# systemctl restart rpcbind
8. [root@localhost ~]# systemctl restart nfs
9. [root@localhost ~]# showmount -e                                        //查看本机的NFS共享目录
10. Export list for localhost.localdomain:
11. /opt/wwwroot 192.168.2.0/
12. [root@localhost ~]# echo 666 > /opt/wwwroot/index.html                  //共享测试网页
  • 两台web主机配置访问NFS共享资源
1. [root@localhost ~]# systemctl enable rpcbind
2. [root@localhost ~]# systemctl restart rpcbind
3. [root@localhost ~]# showmount -e 192.168.2.1
4. Export list for 192.168.2.1:
5. /opt/wwwroot 192.168.2.0/
6. [root@localhost ~]# mount 192.168.2.1:/opt/wwwroot /var/www/html
7. mount.nfs: access denied by server while mounting 192.168.2.1:/opt/wwwroot
8. [root@localhost ~]# tail -1 /etc/mtab
9. /dev/sr0 /media iso9660 ro,relatime 0 0
  • 测试机访问200.0.0.1

案例2:直接路由模式(LVS-DR)

准备案例环境

       在DR模式的群集中,LVS负载调度器作为群集的访问入口,但不作为网关使用;服务器池中的所有节点都各自接入internet,发送给客户机的Web响应数据包不需要经过LVS负载调度器。这种方式入站,出站访问数据被分别处理,因此LVS负载调度器和所有的节点服务器都需要配置VIP地址,以便响应整个群集的访问。考虑到数据存储的安全性,共享存储是被会放在内部的专用网络中。

根据下图配置IP地址

配置负载调度器

  • 配置虚拟IP地址(VIP)

lvs主机采用虚接口的方式(ens33:0),为网卡ens33绑定VIP地址,以便响应群集访问。

1. [root@localhost ~]# cd /etc/sysconfig/network-scripts/
2. [root@localhost network-scripts]# cp ifcfg-ens33 ifcfg-ens33:0
3. [root@localhost network-scripts]# vim ifcfg-ens33:0
4. ......//省略部分内容
5. NAME=ens33:0
6. DEVICE=ens33:0
7. ONBOOT=yes
8. IPADDR=200.0.0.254
9. NETMASK=255.255.255.0
10. [root@localhost network-scripts]# ifup ens33:0
11. [root@localhost network-scripts]# ifconfig ens33:0
12. ens33:0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
13.         inet 200.0.0.254  netmask 255.255.255.0  broadcast 200.0.0.255
14.         ether 00:0c:29:af:af:9d  txqueuelen 1000  (Ethernet)
  • 调整/proc响应参数(关闭ICMP重定向)
1. [root@localhost ~]# vim /etc/sysctl.conf
2. ......//省略部分内容
3. net.ipv4.conf.all.send_redirects = 0
4. net.ipv4.conf.default.send_redirects = 0
5. net.ipv4.conf.ens33.send_redirects = 0
6. [root@localhost ~]# sysctl -p
  • 配置负载分配策略
1. [root@localhost ~]# modprobe ip_vs
2. [root@localhost ~]# yum -y install ipvsadm
3. [root@localhost ~]# ipvsadm -C 
4. [root@localhost ~]# ipvsadm -A -t 200.0.0.254:80 -s rr
5. [root@localhost ~]# ipvsadm -a -t 200.0.0.254:80 -r 200.0.0.2 -g -w 1
6. [root@localhost ~]# ipvsadm -a -t 200.0.0.254:80 -r 200.0.0.3 -g -w 1
7. [root@localhost ~]# ipvsadm-save 
8. -A -t localhost.localdomain:http -s rr
9. -a -t localhost.localdomain:http -r 200.0.0.2:http -g -w 1
10. -a -t localhost.localdomain:http -r 200.0.0.3:http -g -w 1
11. [root@localhost ~]# systemctl enable ipvsadm

配置节点服务器

       使用DR模式时,节点服务器也需要配置VIP地址,并调整内核的APP响应参数以阻止更新VIP的MAC地址,避免发生冲突。除此之外,Web服务的配置与NAT方式类似。

  • 配置虚拟IP地址(VIP)

       在每个节点服务器,同样需要具有VIP地址200.0.0.254,但此地址仅用作发送Web响应数据包的源地址,并不需要监听客户机的访问请求(该由调度器监听并分发)。因此使用虚接口lo:0来承载VIP地址,并为本机添加一条路由记录,将访问VIP的数据限制在本地,以避免通信紊乱。

1. [root@localhost ~]# cd /etc/sysconfig/network-scripts/
2. [root@localhost network-scripts]# cp ifcfg-lo ifcfg-lo:0
3. [root@localhost network-scripts]# vim ifcfg-lo:0
4. DEVICE=lo:0
5. IPADDR=200.0.0.254
6. NETMASK=255.255.255.255                                     //子网掩码必须全为1
7. ONBOOT=yes
8. [root@localhost network-scripts]# ifup lo:0
9. [root@localhost network-scripts]# ifconfig lo:0
10. lo:0: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
11.         inet 200.0.0.254  netmask 255.255.255.255
12.         loop  txqueuelen 1  (Local Loopback)
13.        
14. [root@localhost network-scripts]# cd
15. [root@localhost ~]# vim /etc/rc.local                       //添加VIP本地访问路由
16. ......//省略部分内容
17. /sbin/route add -host 200.0.0.254 dev lo:0
18. [root@localhost ~]# route add -host 200.0.0.254 dev lo:0
  • 调整/proc响应参数(关闭部分arp应答)
1. [root@localhost ~]# vim /etc/sysctl.conf
2. net.ipv4.conf.all.arp_ignore = 1
3. net.ipv4.conf.all.arp_announce = 2
4. net.ipv4.conf.default.arp_ignore = 1
5. net.ipv4.conf.default.arp_announce = 2
6. net.ipv4.conf.lo.arp_ignore = 1
7. net.ipv4.conf.lo.arp_announce = 2
8. [root@localhost ~]# sysctl -p
  • 安装httpd,创建侧测试网页,启动httpd服务程序
1. [root@localhost ~]# yum -y install httpd
2. [root@localhost ~]# echo 111111111 > /var/www/html/index.html
3. [root@localhost ~]# systemctl start httpd
4. [root@localhost ~]# systemctl enable httpd

重复以上步骤,配置其他节点服务器,web网页可以设为不同内容用来区分。

测试LVS群集

       测试机访问http://200.0.0.254,将能够看到由真实服务器提供的网页内容——如果各节点的网页不同,则不同客户机看到的网页也不一样(多刷新几次,有延迟或打开两个页面直接访问)

       在LVS负载调度器中,通过查看节点状态可以观察当前的负载分配情况,对于轮询算法来说,每个节点所获得的连接负载应大致相当。

1. [root@localhost ~]# ipvsadm -ln
2. IP Virtual Server version 1.2.1 (size=4096)
3. Prot LocalAddress:Port Scheduler Flags
4.   -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
5. TCP  200.0.0.254:80 rr
6.   -> 200.0.0.2:80                 Route   1      0          0        
7.   -> 200.0.0.3:80                 Route   1      0          0

NFS主机做共享

详细配置参数参考前面NFS共享存储服务

  • 使用NFS发布共享资源
1. [root@localhost ~]# systemctl enable nfs
2. Created symlink from /etc/systemd/system/multi-user.target.wants/nfs-server.service to /usr/lib/systemd/system/nfs-server.service.
3. [root@localhost ~]# systemctl enable rpcbind
4. [root@localhost ~]# mkdir -p /opt/wwwroot
5. [root@localhost ~]# vim /etc/exports                                    //设置共享目录
6. /opt/wwwroot 192.168.2.0/24(rw,sync,no_root_squash)
7. [root@localhost ~]# systemctl restart rpcbind
8. [root@localhost ~]# systemctl restart nfs
9. [root@localhost ~]# showmount -e                                        //查看本机的NFS共享目录
10. Export list for localhost.localdomain:
11. /opt/wwwroot 192.168.2.0/
12. [root@localhost ~]# echo 666 > /opt/wwwroot/index.html                  //共享测试网页
  • 两台web主机配置访问NFS共享资源
1. [root@localhost ~]# systemctl enable rpcbind
2. [root@localhost ~]# systemctl restart rpcbind
3. [root@localhost ~]# showmount -e 192.168.2.1
4. Export list for 192.168.2.1:
5. /opt/wwwroot 192.168.2.0/
6. [root@localhost ~]# mount 192.168.2.1:/opt/wwwroot /var/www/html
7. mount.nfs: access denied by server while mounting 192.168.2.1:/opt/wwwroot
8. [root@localhost ~]# tail -1 /etc/mtab
9. /dev/sr0 /media iso9660 ro,relatime 0 0
  • 测试机访问200.0.0.254


相关实践学习
部署高可用架构
本场景主要介绍如何使用云服务器ECS、负载均衡SLB、云数据库RDS和数据传输服务产品来部署多可用区高可用架构。
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
相关文章
|
4月前
|
负载均衡 应用服务中间件 Linux
Nginx系列教程(14) - LVS+KeepAlived+Nginx实现高性能负载均衡集群
Nginx系列教程(14) - LVS+KeepAlived+Nginx实现高性能负载均衡集群
87 0
|
5月前
|
负载均衡 应用服务中间件 Linux
企业实战(13)LVS负载均衡NAT(网络地址转换)模式实战详解(一)
企业实战(13)LVS负载均衡NAT(网络地址转换)模式实战详解(一)
|
5月前
|
存储 负载均衡 网络协议
企业实战(13)LVS负载均衡DR(直接路由)模式实战详解(二)
企业实战(13)LVS负载均衡DR(直接路由)模式实战详解(二)
|
6月前
|
存储 负载均衡 应用服务中间件
LVS负载均衡群集——NAT模式实操
LVS负载均衡群集——NAT模式实操
108 0
|
2月前
|
缓存 负载均衡 应用服务中间件
【分布式技术专题】「分析Web服务器架构」Tomcat服务器的运行架构和LVS负载均衡的运行机制(修订版)
在本章内容中,我们将深入探讨 Tomcat 服务器的运行架构、LVS 负载均衡的运行机制以及 Cache 缓存机制,并提供相应的解决方案和指导。通过理解这些关键概念和机制,您将能够优化您的系统架构,提高性能和可扩展性。
51 4
【分布式技术专题】「分析Web服务器架构」Tomcat服务器的运行架构和LVS负载均衡的运行机制(修订版)
|
4月前
|
负载均衡 算法 网络协议
Keepalived+LVS搭建高可用负载均衡
Keepalived+LVS搭建高可用负载均衡
159 1
|
5月前
|
负载均衡 应用服务中间件 nginx
71分布式电商项目 - nginx高可用以及lvs+nginx负载均衡(资料)
71分布式电商项目 - nginx高可用以及lvs+nginx负载均衡(资料)
35 0
|
6月前
|
存储 负载均衡 网络协议
LVS负载均衡群集—DR直接路由
LVS负载均衡群集—DR直接路由
59 0
|
6月前
|
域名解析 负载均衡 网络协议
keepalived+vip+lvs高可用负载均衡服务演化
keepalived+vip+lvs高可用负载均衡服务演化
236 0
|
10月前
|
负载均衡 网络协议 调度
LVS+Keepalived实现高可用和负载均衡
LVS+Keepalived实现高可用和负载均衡
119 0

相关产品

  • 云迁移中心