Keepalived+lvs 集群的 部署(二)

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
EMR Serverless StarRocks,5000CU*H 48000GB*H
网络型负载均衡 NLB,每月750个小时 15LCU
简介:

 第六 配置keepalived 主配置文件,修改keepalived.conf    

#cd  /etc/keepalived

           #vim  keepalived.conf

    #全局配置模块

 ! Configuration File for keepalived 

global_defs {

   #notification_email {

   #       fenfa0826#msn.cn

   #    }

 注: 指定keepalived 在发生事件时,需要发送Emial SA ,可以是多个用户,

   #notification_email_from    #

   smtp_server  127.0.0.1 #smtp 服务器的Ip 或者是域名

   smtp_connect_timeout 30 # 注:连接smtp服务器的超时时间

    router_id ha1  #注:该处的ha1必须是主机名,而且也必须和uname  -n  主机名相同   

}

   #static_ipaddress

   #   {

   #     192.168.2.188 brd + dev eth0 scope global

   #     }

   # static_routers

   #    {   src 192.168.2.188 to 192.168.2.188 dev eth0

   #      }

         注:,如果服务器中已经设置好,在该处就不需要设置,

  # VRRP  configuration    vrrpd  的配置   

vrrp_sync_group VG_1 {

         group {

             VG_1   #注: 该处是实例的名字

             }

          #notify_master  /etc/keepalived/apache.sh  #注:当切换到Master时,执行的脚本,该脚本可以传递参数,如果是传递参数时需要用双引号引起

          #notify_backup  /etc/keepalived/apache.sh#注: 当切换到Backup 时执行的脚本

          #notify   /path/to/notify.sh   #注:该指令有三个参数,该参数有keepalived 提供

          #smtp_alert  #注: 使用global_defs 里面定义的邮件地址和smtp 服务器在切换后发送Email 通知

           } 

vrrp_instance VI_1 {     #vrrp  实例的配置

    state MASTER  #注:指定instance 的初始状态,在两台 router 都启动后,就会立即发生竞选, priority 高的会竞选为Master ,因此该处的state 并不能表示这台就是Master

    interface eth0  #注:  实例绑定的网卡

    dont_track_primary  注: 忽略VRRPinterface 错误,默认不设负责置

    lvs_sync_daemon_interface eth0  #注:负载均衡器之间监听的接口,和Heartbeat 的心跳线类似,但是不会出现脑裂问题,该处与服务接口interface 使用同一网络接口

    track_interface {     

eth0

      eth1

     }  注:设置额外的监控,该处的任意一块网卡出现问题,都会进入FAULT状态

   mcast_src_ip eth1  #发送多播包的地址,如果不设置,默认使用保定的网卡primary  IP

       garp_master_delay  10 #注: 在切换到MASTER 状态后,延迟进行gratuitous ARP 请求

              virtual_router_id 51  #VRID 标记(0…255)该处一定要与BACKUP 的相同

             priority 151  #优先级设置,数值越大,优先级越高,在同一个实例中Master 的优先级一定要大于BACKUP  MASTER 要高于BACKUP至少50

             advert_int 1 #同步通知间隔 MASTERBACKUP 负载均衡器之间的同步检查时间间隔单位秒

             authentication {

             auth_type PASS

             auth_pass 1111

            }  注: 设置认证,包含认证类型和认知密码,类型主要分为PASSAH 两种,,验证密码为明文,同一个vrrp 实例中MASTERBACKUP中的密码必须相同才能正常通信 

         #nopreempt  #注:设置为不抢占,该处配置只有在BACKUPpriority 优先级高于master 时,才在BACKUP上设置的

         # preempt_delay #注:设置的抢占延迟时间,默认5分钟,我没有设置

       virtual_ipaddress {

        192.168.2.188  dev eth0 label eth0:0

 

 }  注: 虚拟的IP地址,该处的IP地址必须和RealServer 中配置的虚拟IP相同

     }

#LVS 模块,即 虚拟服务器模块

virtual_server 192.168.2.188 80 {  #设置的虚拟virtual server VIPVport

    delay_loop 3     #注: 健康监测的时间间隔,单位是秒

    lb_algo rr  #注:负载均衡的调度算法

    lb_kind DR #注: 负载均衡的转发规则

persistence_timeout 10  #注: 会话保持时间 单位是秒,该项对动态网站很有作用

#persistence_ granularity  <NETMASK>   #  注: LVS 会话保持粒度 ipvsadm 中的-M参数 ,根据每个客户端做会话保持

    protocol TCP #注: 使用的协议是TCP还是UDP

    sorry_server 127.0.0.1 80  注: 备用机,所有的real server 失效后启用,如果设置的是本地机器,同样也需要在本机上进行arp隐藏

     #注: RealServer 的配置

    real_server 192.168.2.153 80  { 

        weight 1              #注: 设置的权重 默认为10为失效

        inhibit_on_failure       #注在服务器健康监查失效后,将其的权重设置为0,而不是直接从IPVS里面删除

        TCP_CHECK {

 

            connect_timeout 3  注:连接超时时间

            nb_get_retry 3    #注:重连次数

            delay_before_retry 3  #注: 重连的时间间隔

            connect_port 80      #注: 健康检查端口

        }

    }

   real_server 192.168.2.155 80 {

        weight 1

        #inhibit_on_failure

        TCP_CHECK {

            connect_timeout 3

            nb_get_retry 3

            delay_before_retry 3

            connect_port 80

        }

    } 

} 

第七 配置BAKUP

    BACKUP keepalived 主配置文件基本上都是相同的vrrp_instance VI_1{

             state  BACKUP

             priority   100 # 该值一定要小于MASTER 中的优先级,如果要是和 MASTER 中的优先级相等或者大于MASTER的优先级的话,一定在VRRP_instance V      I_1中设置nopreempt

    ….

   } 

 第八 .配置真实服务器

     在每台真实服务器上进行arp 隐藏。

        #!/bin/bash

#chkconfig:345 20 80

#description: lvs real server

VIP=192.168.2.188

host=`/bin/hostname`

case "$1" in

                start)

                        #start lvs

                        /sbin/ifconfig lo down

                        /sbin/ifconfig lo up

                        echo "1" > /proc/sys/net/ipv4/conf/lo/arp_ignore

                        echo "2" > /proc/sys/net/ipv4/conf/lo/arp_announce

                        echo "1" > /proc/sys/net/ipv4/conf/all/arp_ignore

                        echo "2" > /proc/sys/net/ipv4/conf/all/arp_announce

                        sysctl -p > /dev/null 2>&1

                        /sbin/ifconfig lo:0 $VIP netmask 255.255.255.255 up

                        /sbin/route add -host $VIP dev lo:0

                        ;;

                stop)

                        #stop lvs

                        /sbin/ifconfig lo:0 down

                        echo "0" > /proc/sys/net/ipv4/conf/lo/arp_ignore

                        echo "0" > /proc/sys/net/ipv4/conf/lo/arp_announce

                        echo "0" > /proc/sys/net/ipv4/conf/all/arp_ignore

                        echo "0" > /proc/sys/net/ipv4/conf/all/arp_announce

                        sysctl -p > /dev/null 2>&1

                        ;;

                status)

                        #status of lvs

                        islothere=`/sbin/ifconfig lo:0 |grep $VIP`

                        isrothere=`/netstat -rn |grep "lo" |grep "$VIP"`

                        if [ ! "islothere" -o ! "isrothere" ];then

                                        echo "the realserver is stopped"

                                else

 

                echo "realserver is running"

                        fi

                        ;;

                *)

                        echo "Usage:$0{start|stop|status}"

                exit 1

esac

                                        

第九.在每个RealServer 上运行上面的脚本,并查看

  # ip  addr list

     1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue

    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00

    inet 127.0.0.1/8 scope host lo

    inet 192.168.2.188/32 brd 192.168.2.188 scope global lo:0

    inet6 ::1/128 scope host

       valid_lft forever preferred_lft forever

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast qlen 1000

    link/ether 00:0c:29:34:2b:8d brd ff:ff:ff:ff:ff:ff

    inet 192.168.2.155/24 brd 192.168.2.255 scope global eth0

    inet6 fe80::20c:29ff:fe34:2b8d/64 scope link

       valid_lft forever preferred_lft forever

3: sit0: <NOARP> mtu 1480 qdisc noop

     link/sit 0.0.0.0 brd 0.0.0.0

    注:红色部分为VIP一定要注意vip的子网掩码必须是为32

 第十 keepalived 主机上启动keepalived,先启动MASTER,然后再启动BACKUP

  自启动之前先看看VIP是不是有vip

        #service keepalived start

        #ip  addr list

    2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast qlen 1000

    link/ether 00:0c:29:03:4a:b8 brd ff:ff:ff:ff:ff:ff

    inet 192.168.2.211/24 brd 192.168.2.255 scope global eth0

    inet 192.168.2.188/32 scope global eth0:0

    inet6 fe80::20c:29ff:fe03:4ab8/64 scope link

       valid_lft forever preferred_lft forever

 注: 此处只取eth0  的信息,如果您要是执行该命令的话,会把所有的网卡信息都显示出来

第十.可以进行测试keepalived 的高可用性集群lvs 负载均衡,我测试的是成功的,再次就不再进行书写测试结果了

 










本文转自 freehat08 51CTO博客,原文链接:http://blog.51cto.com/freehat/415960,如需转载请自行联系原作者
相关实践学习
SLB负载均衡实践
本场景通过使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,快速解决服务器响应速度慢的问题
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
目录
相关文章
|
2月前
|
运维 负载均衡 网络协议
LVS+Keepalived 负载均衡
LVS+Keepalived 负载均衡
68 8
LVS+Keepalived 负载均衡
|
2月前
|
域名解析 运维 负载均衡
LVS+Keepalived 负载均衡(二)28-1
【8月更文挑战第28天】LVS+Keepalived 负载均衡 配置 LVS VIP
61 5
|
6月前
|
负载均衡 网络协议 算法
LVS 负载均衡部署的三种模式 与搭建dr模式具体步骤
LVS 负载均衡部署的三种模式 与搭建dr模式具体步骤
|
3月前
|
负载均衡 网络协议
使用LVS搭建集群实现负载均衡(二)安装使用
【8月更文挑战第8天】使用LVS搭建集群实现负载均衡(二)安装使用
63 5
|
3月前
|
存储 负载均衡 算法
使用LVS搭建集群实现负载均衡(一)
【8月更文挑战第8天】使用LVS搭建集群实现负载均衡
131 5
|
3月前
|
负载均衡 监控 算法
在Linux中,如何配置和管理LVS集群?
在Linux中,如何配置和管理LVS集群?
|
6月前
|
负载均衡 网络协议
NAT模式 LVS负载均衡部署
NAT模式 LVS负载均衡部署
|
6月前
|
弹性计算 负载均衡 网络协议
LVS (Linux Virtual server)集群介绍
LVS (Linux Virtual server)集群介绍
|
6月前
|
运维 负载均衡 监控
keepalived+LVS实现高可用性集群
通过结合keepalived和LVS,你可以创建一个高可用性的负载均衡集群,确保服务器的稳定性和性能。这对于托管Web服务、应用服务器等关键服务的服务器集群非常有用。
116 1
|
6月前
|
负载均衡 监控 Linux
CentOS6.5高可用集群LVS+Keepalived(DR模式)
CentOS6.5高可用集群LVS+Keepalived(DR模式)