HAProxy实现网站高并发集群

简介:

简介:HAProxy提供高可用性、负载均衡以及基于TCP和HTTP应用的代理,支持虚拟主机,它是免费、快速并且可靠的一种解决方案。HAProxy特别适用于那些负载特大的web站点,这些站点通常又需要会话保持或七层处理。HAProxy运行在当前的硬件上,完全可以支持数以万计并发连接并且它的运行模式使得它可以很简单安全的整合进您当前的架构中,同时可以保护你的web服务器不被暴露到网络上。

项目需求:由于网站规模的扩大,访问量的也越来越多,原来的一台机器提供网站服务,出现故障后就中断了网站服务,造成经济损失,现在老板发话要解决单点故障,于是我就找了些资料,对比了下Haproxy、LVS、Nginx,是各有各的优点,我们的网站每天的PV也不是很大,就先在虚拟机上做了下测试,仅做Haproxy部分七层负载均衡,生产环境需要Haproxy+keepalived来实现负载均衡器高可用性。

先了解下HAProxy常用的算法:

roundrobin   #表示简单的轮询,每个负载均衡器基本都具备的
static-rr    #表示根据权重
leastconn    #表示最少连接者先处理
source       #表示根据请求源IP, haprox按照客户端的IP地址所有请求都保持在一个服务器上

ri           #表示根据请求的URI
rl_param     #表示根据请求的URl参数'balance url_param' requires an URL parameter name
hdr(name)    #表示根据HTTP请求头来锁定每一次HTTP请求
rdp-cookie(name) #表示根据据cookie(name)来锁定并哈希每一次TCP请求

拓扑图:

124805373.jpg

下载:http://haproxy.1wt.eu/

配置如下:

安装haproxy

1
2
3
4
[root@localhost ~] # tar zxvf haproxy-1.4.24.tar.gz
[root@localhost ~] # cd haproxy-1.4.24
[root@localhosthaproxy-1.4.24] # make TARGET=linux26 PREFIX=/usr/local/haproxy
[root@localhosthaproxy-1.4.24] # make install PREFIX=/usr/local/haproxy

#进入安装目录创建配置文件

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
[root@localhosthaproxy-1.4.24] # cd /usr/local/haproxy/
[root@localhost haproxy] # mkdir conf
[root@localhost haproxy] # cd conf/
[root@localhost conf] # vi haproxy.cfg
global
     log 127.0.0.1 local0   #通过syslog服务的local0输出日志信息
     maxconn 4096   #单个进程的最大连接数
     uid 99         #所属运行的用户uid,默认nobod
     gid 99         #所属运行的用户组,默认nobody
     daemon         #后台运行
     nbproc 2       #工作进程数量
     pidfile  /var/run/haproxy .pid
defaults
     log global
     log 127.0.0.1 local3 err  #使用本机上的syslog服务的local3 设备记录错误信息[err warning info debug]
     mode http           #工作模式在7层,tcp是4层
     option httplog      #使用http日志类别,默认是不记录http请求的
     option httpclose    #每次请求完毕后主动关闭http通道式
     option forwardfor   #如果后端服务器需要获得客户端的真实IP需要配置次参数,将可以从Http Header中获得客户端IP
     option redispatch   #当serverId对应的服务器挂掉后,强制定向到其他健康的服务器
     retries 3           #设置尝试次数,3次连接失败则认为服务器不可用
     maxconn 2048        #最大连接数
     contimeout 5000     #连接超时
     clitimeout 50000    #客户端超时
     srvtimeout 50000    #服务器超时
     timeout check 2000          #心跳检测超时
listen status 0.0.0.0:8080      #定义状态名字和监听端口
     stats uri  /haproxy-status   #查看haproxy服务器状态地址
     stats auth admin:admin      #查看状态页面的用户名和密码
     stats hide-version          #隐藏haproxy版本信息
     stats refresh 30s           #每5秒刷新一次状态页面
listen web_server 0.0.0.0:80    #定义后端名字和监听端口
     mode http                   #采用7层模式
     balance roundrobin          #负载均衡算法,这里是轮叫
     cookie SERVERID   #允许插入serverid到cookie中,serverid后面可以定义
     option httpchk GET  /index .html  #健康检测
     server web1 192.168.1.11:80 weight 3 check inter 500 fall 3
     server web2 192.168.1.12:80 weight 2 check inter 500 fall 3

说明:用server来设置后端服务器

第二段:haproxy自己的一个名称,将在日志中显示

第三段:后端IP和端口

第四段:权重值,权重值越大,分配的任务几率越高

第五段:健康检测,inter 500健康检测间隔是500毫秒

最后一段:检测多少次,认为服务器是不可用的

启动haproxy

1
[root@localhost ~] # /usr/local/haproxy/sbin/haproxy -f /usr/local/haproxy/conf/haproxy.cfg

重启haproxy

1
[root@localhost ~] # /usr/local/haproxy/sbi n/haproxy -f /usr/local/haproxy/conf/haproxy.cfg -st `cat/var/run/haproxy.pid`

写一个简单的haproxy服务脚本

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
[root@localhost ~] # vi /etc/init.d/haproxy
#!/bin/bash
DIR= /usr/local/haproxy
PIDFILE= /var/run/haproxy .pid
ARG=$*
start()
{
echo  "Starting Haproxy ..."
$DIR /sbin/haproxy  -f $DIR /conf/haproxy .cfg
}
stop()
{
echo  "Stopping Haproxy ..."
kill  -9 $( cat  $PIDFILE)
}
case  $ARG  in
start)
start
;;
stop)
stop
;;
restart)
stop
start
;;
*)
echo  "Usage: start|stop|restart"

#设置开机启动

1
2
[root@localhost ~] # chmod +x/etc/init.d/haproxy
[root@localhost ~] # echo "/etc/init.d/haproxy start" >> /etc/rc.local

#查看服务器状态

http://192.168.1.10:8080/haproxy-status

125812648.png

配置haproxy日志输出

1
2
3
4
[root@localhost ~] # vi /etc/rsyslog.conf #在下面添加
local3.*      /var/log/haproxy .log
local0.*      /var/log/haproxy .log
[root@localhost ~] # service rsyslog restart

后端web服务器配置相同

1
2
3
[root@localhost ~] # yum install httpd –y
[root@localhost ~] # service httpd start
[root@localhost ~] # echo "web1/web2" > /var/www/html/index.html

测试访问http://192.168.1.10,按F5一直刷新会显示轮训显示web1和web2,模拟web1故障down机,haproxy页面显示的状态会变成DOWN,只有web2提供服务,当web1恢复后会自动加入集群中。

相关实践学习
部署高可用架构
本场景主要介绍如何使用云服务器ECS、负载均衡SLB、云数据库RDS和数据传输服务产品来部署多可用区高可用架构。
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
目录
相关文章
|
5月前
|
消息中间件 缓存 应用服务中间件
Nginx系列教程(02) - 高可用与高并发介绍
Nginx系列教程(02) - 高可用与高并发介绍
53 0
|
22小时前
|
负载均衡 网络协议 算法
HAProxy实现网站高并发集群
HAProxy实现网站高并发集群
|
6月前
|
负载均衡 应用服务中间件 nginx
71分布式电商项目 - nginx高可用以及lvs+nginx负载均衡(资料)
71分布式电商项目 - nginx高可用以及lvs+nginx负载均衡(资料)
41 0
|
8月前
|
负载均衡 应用服务中间件 开发工具
nginx负载均衡优化和高可用
nginx负载均衡优化和高可用
117 0
|
负载均衡 应用服务中间件 数据处理
Nginx搭建负载均衡实现高并发
有的时候我们部署的项目并发人数一旦增加,单体项目很容易挂掉,不是我们的服务器配置不够,因为每一个 tomcat 的能力是有限的,导致了拖慢访问速度,这个时候我们就可以使用负载均衡
181 0
|
Web App开发 缓存 应用服务中间件
|
Web App开发 负载均衡 应用服务中间件

热门文章

最新文章