nginx负载均衡

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
EMR Serverless StarRocks,5000CU*H 48000GB*H
.cn 域名,1个 12个月
简介:

今天我们来学习下有关nginx的负载均衡配置。nginx的负载均衡是通过nginx的upstream模块和proxy_pass反向代理来实现的。

说明:有三台服务器,前端的A服务器使用nginx进行负载均衡配置。后端是两台配置的相同服务器,以访问a.ilanni.com这个域名为例。结构图,如下:

clip_image001

A服务器对外(公网)开放80端口,B、C服务器就是两台配置相同的服务器。B服务器开放8080端口,C服务器开放8090端口。当客户端访问a.ilanni.com域名时,A服务器根据nginx的upstream模块相应策略进行分配客户端访问到B服务器还是C服务器。

注意B服务器和C服务器内容是相同的。但是在此,我们为了看到实验效果,我在B、C服务器配置了不同的内容。B服务器的默认页面现实的内容为:The Server is web1_192.168.1.249:8080。C服务器的默认页面现实的内容为:The Server is web2_192.168.1.249:8090。如下:

clip_image002

nginx负载均衡的默认是使用轮询方式进行分配的,而且默认的权重为1,并且权重越大被访问的几率越大。

我们先配置A服务器的nginx,如下:

cat /usr/local/nginx/conf/nginx.conf|grep -v ^#|grep -v ^$

upstream a.ilanni.com {

server 192.168.1.248:8080;

server 192.168.1.249:8090;

}

location / {

proxy_pass http://a.ilanni.com;

proxy_set_header Host $host;

proxy_set_header X-Real-IP $remote_addr;

proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

}

clip_image003

注意上图中,标记出来的第一部分。其中upstream就是做负载均衡使用的。http://a.ilanni.com;就是我们要访问的域名,通过proxy_pass反向代理到upstream下的服务器中。

第二部分就是我们要反向代理的域名,注意在此我们监听的是80端口,而且这个server标签中,我并没有配置server_name。其实配置server_name也是可以的,不过最后的效果是一样的,这个是经过测试的。

第三部分,在此我配置的就是一个虚拟主机。监听的是8080端口,并且在此我也配置了server_name。这个主要是为了做对比使用的。

我们现在先启动A服务器的nginx,并且访问a.ilanni.com:8080。如下:

clip_image004

可以看到目前A服务器的nginx已经可以正常访问了。注意我们在此访问的是http://a.ilanni.com:8080

现在开始配置B、C服务器的nginx,配置内容如下:

clip_image005

clip_image006

B、C服务器的nginx配置完毕后,我们现在来启动各自的nginx服务并访问,如下:

clip_image007

通过上图,我们可以看到B、C服务器的nginx已经正常访问了。那么我现在来访问http://a.ilanni.com看看能不能达到我们所要的效果。如下:

clip_image008

可以看到我们现在访问http://a.ilanni.com已经反向代理到upstream下的B服务器,并且现在显示的是B服务器的内容。

再次刷新页面,显示如下:

clip_image009

刷新页面后,你会发现这次显示的是C服务器的内容。也说明http://a.ilanni.com已经反向代理到C服务器上。

你可以多次刷新页面,会发现显示的内容是B、C服务器交替出现。

为什么会是这样呢?

其实在文章前面,我已经介绍了nginx的upstream负载均衡,在没有其他配置的情况默认使用的策略是轮询方式的,而且默认的权重为1。

也就是说:upstream a.ilanni.com {

server 192.168.1.248:8080;

server 192.168.1.249:8090;

}

中B、C服务器的默认权重都是一样为1。那么在nginx轮询时,所以B、C服务器会交替出现。

如果我们现在把B服务器的权重设置为5,C服务器还是使用默认看看实际情况。配置如下:

upstream a.ilanni.com {

server 192.168.1.248:8080 weight=5;

server 192.168.1.249:8090;

}

clip_image010

再次访问http://a.ilanni.com,首先显示的还是B服务器的内容。然后刷新,你会发现大约大约刷新了5次左右,才会显示C服务器的内容。这就权重的作用,服务器的权重数值越高,被分配到客户端的请求次数越多。

注意以上实验,我们是在A、B、C服务器是在同一个局域网,对公网来说只是开放了A服务器的80端口。如果这三台服务器全部是公网IP的话,那就是我们下篇文章要介绍的内容了,有关nginx反向代理的使用。

到此,有关nginx的负载均衡我们基本上介绍完毕后。下面在辅助介绍下,nginx的upstream目前支持以下几种方式的分配:

1)、轮询(默认) 每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

2)、weight 指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。设置服务器的权重,权重数值越高,被分配到客户端的请求次数越多,默认值为1。

3)、ip_hash 每个请求按访问IP的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。

4)、fair(第三方) 按后端服务器的响应时间来分配请求,响应时间短的优先分配。

5)、url_hash(第三方)按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。

相关实践学习
SLB负载均衡实践
本场景通过使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,快速解决服务器响应速度慢的问题
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
相关文章
|
4月前
|
缓存 负载均衡 算法
解读 Nginx:构建高效反向代理和负载均衡的秘密
解读 Nginx:构建高效反向代理和负载均衡的秘密
103 2
|
22小时前
|
负载均衡 算法 应用服务中间件
nginx反向代理与负载均衡
nginx反向代理与负载均衡
9 1
|
1天前
|
负载均衡 监控 算法
Nginx入门 -- 深入了解Nginx负载均衡
Nginx入门 -- 深入了解Nginx负载均衡
6 0
|
1月前
|
负载均衡 网络协议 Unix
Nginx负载均衡与故障转移实践
Nginx通过ngx_http_upstream_module模块实现负载均衡与故障转移,适用于多服务器环境。利用`upstream`与`server`指令定义后端服务器组,通过`proxy_pass`将请求代理至这些服务器,实现请求分发。Nginx还提供了多种负载均衡策略,如轮询、权重分配、IP哈希等,并支持自定义故障转移逻辑,确保系统稳定性和高可用性。示例配置展示了如何定义负载均衡设备及状态,并应用到具体server配置中。
|
2月前
|
负载均衡 应用服务中间件 Linux
"揭晓nginx的神秘力量:如何实现反向代理与负载均衡,拯救服务器于水火?"
【8月更文挑战第20天】在Linux环境下,nginx作为高性能HTTP服务器与反向代理工具,在网站优化及服务器负载均衡中扮演重要角色。本文通过电商平台案例,解析nginx如何解决服务器压力大、访问慢的问题。首先介绍反向代理原理,即客户端请求经由代理服务器转发至内部服务器,隐藏真实服务器地址;并给出配置示例。接着讲解负载均衡原理,通过将请求分发到多个服务器来分散负载,同样附有配置实例。实践表明,采用nginx后,不仅服务器压力得到缓解,还提升了访问速度与系统稳定性。
60 3
|
2月前
|
负载均衡 算法 应用服务中间件
在Linux中,nginx反向代理和负载均衡实现原理是什么?
在Linux中,nginx反向代理和负载均衡实现原理是什么?
|
2月前
|
负载均衡 应用服务中间件 nginx
Nginx怎么去做负载均衡?
Nginx的负载均衡器配置就完成了,而且由于Nginx的配置文件结构清晰而且简洁,调整和维护也相对方便。通过上述步骤,你可以将Nginx设置为一款强大的负载均衡器,提升服务器集群的处理能力及高可用性。
52 4
|
2月前
|
域名解析 负载均衡 网络协议
双重神器合璧,流量洪流中的稳如磐石:揭秘Bind+Nginx负载均衡的超级力量!
【8月更文挑战第9天】在现代网站架构中,负载均衡至关重要,它通过分散客户端请求至多台服务器,确保了系统的高可用性和稳定性。本文介绍如何结合Bind与Nginx实现高效负载均衡。Bind作为DNS服务器,可为单一域名解析出多个IP地址;Nginx作为高性能HTTP服务器,则在这些IP对应的服务器间智能分配流量。通过配置Bind的A记录与Nginx的`upstream`和`proxy_pass`指令,我们能够构建一个既稳定又易扩展的负载均衡系统,显著提升用户体验与系统可靠性。
49 11
|
2月前
|
负载均衡 监控 算法
Nginx:负载均衡小专题(二)
Nginx:负载均衡小专题(二)
43 2
|
2月前
|
负载均衡 监控 网络协议
Nginx:负载均衡小专题(三)
Nginx:负载均衡小专题(三)
95 1