【创作赢红包】Nginx四——Nginx实现负载均衡的多种策略

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
网络型负载均衡 NLB,每月750个小时 15LCU
应用型负载均衡 ALB,每月750个小时 15LCU
简介: 【创作赢红包】Nginx四——Nginx实现负载均衡的多种策略

系列文章目录

【Nginx一】——Nginx介绍(正向代理 反向代理 负载均衡 动静分离)

【Nginx二】——Nginx常用命令 配置文件

Nginx如何处理请求

【Nginx三】——Nginx实现反向代理

Nginx实现负载均衡

前言

本篇博客主要介绍Nginx实现负载均衡的多种策略,包括轮询、最少连接、IP哈希、加权轮询、URL哈希。


一、Nginx的负载均衡是什么

Nginx可以通过反向代理实现负载均衡,有策略的分发请求给不同的后端服务器。避免单点故障,增强整个系统的可用性,从而提高系统的并发处理能力。

nginx中的反向代理实现包括HTTP的负载平衡, HTTPS,FastCGI,uwsgi,SCGI,memcached和gRPC。

要为 HTTPS 而不是 HTTP 配置负载平衡,只需使用“https” 作为协议。

为 FastCGI、uwsgi、SCGI、memcached 或 gRPC 设置负载平衡时,请分别使用 fastcgi_pass、uwsgi_pass、scgi_pass、memcached_pass 和 grpc_pass 指令。

二、负载均衡的多种策略

1.轮询(Round Robin):默认策略,将请求按顺序分配到不同的服务器上。

2.最少连接(Least Connections):将请求分配到连接数最少的服务器上。

3.IP 哈希(IP Hash):将请求的 IP 地址作为哈希键,根据哈希值分配到对应的服务器上,

4.加权负载平衡(Weighted Load Balancing):将请求按照预设的权重分配到不同的服务器上,权重越高的服务器获得的请求越多。

5.URL 哈希(URL Hash):将请求的 URL 地址作为哈希键,根据哈希值分配到对应的服务器上,确保相同的 URL 地址的请求分配到同一台服务器上。

1.轮询(Round Robin)

在轮询算法中,多个目标按照固定的顺序依次接收请求或任务。每当一个新的请求或任务到来时,轮询算法会将其分配给下一个目标,直到所有目标都接收到请求或任务,然后再从头开始。

要使用轮询策略将请求分配到不同的服务器上,可以在upstream块中制定round-robin策略:

代码如下(示例):

upstream backend {
  server 192.168.60.1;
  server 192.168.60.2;
  server 192.168.60.3;
}
server {
  listen 80;
  server_name example.com;
  location / {
    # 指定使用backend代理请求
    proxy_pass http://backend;
  }
}

在这个例子中,upstream块定义了3个后端服务器

这3个服务器会按照默认的轮询策略进行负载均衡。

在server块中,配置了请求转发,所有的请求都会被代理到backend服务器组中的一个服务器上。

2.最少连接(Least Connections)

它将请求分配到连接数最少的服务器上,从而平衡服务器的负载。使用最少连接策略可以避免出现某些服务器负载过重的情况。

在 Nginx 中,可以使用

least_conn 策略来实现最少连接的负载平衡。下面是一个使用

least_conn 策略的例子:

代码如下(示例):

upstream backend {
    least_conn;
    server 192.168.60.1;
    server 192.168.60.2;
    server 192.168.60.3;
}
server {
    listen 80;
    server_name example.com;
    location / {
        proxy_pass http://backend;
    }
}

在上面的例子中,我们定义了一个名为

backend 的服务器组,使用

least_conn 策略将请求分配到连接数最少的服务器上。我们也可以在每个

server 配置项中设置权重、最大失败次数、失败超时等参数,例如:

upstream backend {
    least_conn;
    server 192.168.60.1 weight=2 max_fails=3 fail_timeout=30s;
    server 192.168.60.2 weight=3 max_fails=2 fail_timeout=20s;
    server 192.168.60.3 max_fails=1 fail_timeout=10s;
}
server {
    listen 80;
    server_name example.com;
    location / {
        proxy_pass http://backend;
    }
}

在上面的例子中,我们将权重、最大失败次数和失败超时等参数设置在了每个 server 配置项中。这些参数可以根据实际情况进行设置,以达到更好的负载平衡效果。

3.IP 哈希(IP Hash)

IP 哈希(IP Hash)是一种负载均衡策略,它通过对客户端 IP 地址进行哈希运算,将同一个客户端的请求分配到同一台服务器上。使用 IP 哈希策略可以保证同一个客户端的请求始终被分配到同一台服务器上,从而避免因为多台服务器之间的状态不同步而导致的问题。

需要注意的是,使用 IP 哈希策略时,如果服务器组中有服务器被添加或者删除,那么会导致哈希结果发生变化,从而导致之前被分配到该服务器的请求需要重新分配。因此,在使用 IP 哈希策略时需要考虑服务器组的动态变化情况。

下面是一个使用 IP 哈希(IP Hash)策略的 Nginx 配置实例:

upstream backend {
    ip_hash;
    server 192.168.60.1;
    server 192.168.60.2;
    server 192.168.60.3;
}
server {
    listen 80;
    server_name example.com;
    location / {
        proxy_pass http://backend;
    }
}

在上面的配置中,我们定义了一个名为 backend 的服务器组,使用 ip_hash 策略将同一个客户端的请求分配到同一台服务器上。然后,在一个名为 example.com 的虚拟主机中,我们将所有请求都通过反向代理的方式转发到 backend 服务器组中。

假设客户端 A 的 IP 地址为 192.168.0.1,客户端 B 的 IP 地址为 192.168.0.2,客户端 C 的 IP 地址为 192.168.0.3,则它们的请求分配情况可能如下所示:

客户端 A 的请求被分配到了服务器 192.168.60.1 上;

客户端 B 的请求被分配到了服务器 192.168.60.2 上;

客户端 C 的请求被分配到了服务器 192.168.60.3 上。注意如果某个客户端的请求被分配到了某台服务器上,那么这个客户端的所有后续请求都将被分配到同一台服务器上,直到服务器组中的服务器发生变化为止。

4.加权负载平衡(Weighted Load Balancing)

它根据服务器的权重值来分配负载。每个服务器都被分配了一个权重值,权重值越高的服务器分配到的请求越多。

在 Nginx 中,可以使用 upstream 模块中的 server 指令的 weight 参数来设置服务器的权重值。例如:

upstream backend {
    server 192.168.60.1 weight=10;
    server 192.168.60.2 weight=5;
    server 192.168.60.3 weight=3;
}
server {
    listen 80;
    server_name example.com;
    location / {
        proxy_pass http://backend;
    }
}

在上面的例子中,服务器 192.168.60.1的权重值是

10,而服务器 192.168.60.2的权重值是

5,服务器 192.168.60.3 的权重值是 3。当 Nginx 收到请求时,它会按照负载因子策略,以服务器的权重值来分配请求。具体来说,如果服务器的权重值是 W,那么该服务器被分配到的请求比其他服务器多 W 倍。需要注意的是,在使用负载因子策略时,服务器的性能和负载应该被准确地估计,以便为服务器分配合适的权重值。否则,如果权重值设置不合理,可能会导致某些服务器的负载过高或过低,从而影响整个系统的性能。

5.URL 哈希(URL Hash)

URL 哈希(URL Hash)是 Nginx 负载均衡中的一种策略,它根据请求的 URL 进行哈希运算,并将结果映射到后端服务器。通过这种方式,可以将同一 URL 的请求都分配到同一个后端服务器上,从而实现会话保持(Session Persistence)的效果。


下面是一个使用 URL 哈希策略的 Nginx 配置示例:

upstream backend {
    hash $request_uri;
    server 192.168.60.1 ;
    server 192.168.60.2 ;
    server 192.168.60.3 ;
}
server {
    listen 80;
    server_name example.com;
    location / {
        proxy_pass http://backend;
    }
}

这里我们使用hash指令将哈希算法设置为URL哈希,$request_uri表示使用请求的URL作为哈希值。然后定义3个后端服务器,分别为192.168.60.1和192.168.60.2和192.168.60.3 。

需要注意的是,使用 URL 哈希策略时,如果后端服务器数量发生变化,会导致哈希映射表的变化,从而可能导致一部分请求需要重新分配到其他服务器上,这可能会影响系统的性能。因此,在使用 URL 哈希策略时,应该根据具体情况进行权衡和选择。

补充: nginx的健康检查

Nginx的健康检查是指Nginx服务器通过定期向后端服务器发送检查请求,检查服务器是否能够正常响应,从而判断服务器的健康状况。健康检查对于负载均衡和高可用性非常重要,因为它可以及时发现故障服务器并将流量从故障服务器转移到正常服务器,以保证服务的可靠性和稳定性。

Nginx提供了两种健康检查的方法:基于HTTP请求的健康检查基于TCP连接的健康检查

相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
目录
相关文章
|
7月前
|
负载均衡 网络协议 算法
一文读懂什么是Nginx?它能否实现IM的负载均衡?
Nginx(及其衍生产品)是目前被大量使用的服务端反向代理和负载均衡方案,从某种意义上来讲,Nginx几乎是低成本、高负载Web服务端代名词。 如此深入人心的Nginx,很多人也想当然的认为,在IM或消息推送等场景下是否也能使用Nginx来解决负载均衡问题? 另外,即时通讯网的论坛和QQ群里也经常有人问起,Nginx是否能支持TCP、UDP、WebSocket的负载
170 4
|
3月前
|
缓存 负载均衡 网络协议
电商API接口性能优化技术揭秘:缓存策略与负载均衡详解
电商API接口性能优化是提升系统稳定性和用户体验的关键。本文聚焦缓存策略与负载均衡两大核心,详解其在电商业务中的实践。缓存策略涵盖本地、分布式及CDN缓存,通过全量或部分缓存设计和一致性维护,减少后端压力;负载均衡则利用反向代理、DNS轮询等技术,结合动态调整与冗余部署,提高吞吐量与可用性。文中引用大型及跨境电商平台案例,展示优化效果,强调持续监控与迭代的重要性,为电商企业提供了切实可行的性能优化路径。
|
11月前
|
负载均衡 算法 搜索推荐
Nginx 常用的负载均衡算法
【10月更文挑战第17天】在实际应用中,我们需要根据具体的情况来选择合适的负载均衡算法。同时,还可以结合其他的优化措施,如服务器健康检查、动态调整权重等,来进一步提高负载均衡的效果和系统的稳定性。
290 59
|
4月前
|
负载均衡 前端开发 应用服务中间件
Tomcat的负载均衡和动静分离(与nginx联动)
总的来说,负载均衡和动静分离是提高Web应用性能的两个重要手段。通过合理的配置和使用,我们可以让Web应用更好地服务于用户。
148 21
|
4月前
|
负载均衡 Java 应用服务中间件
Tomcat与Nginx的负载均衡与动静分离技巧
总的来说,Tomcat和Nginx各有各的优点,在负载均衡和动静分离这两方面它们都有很好的应用。灵活使用这两个工具能够让Web应用具有更好的扩展性和用户体验。
125 14
|
4月前
|
负载均衡 前端开发 JavaScript
LVS-DR模式、keepalived、Nginx与Tomcat合作,打造动静分离,高效负载均衡与高可用性
为了采用这样的架构,你需要对LVS-DR、Keepalived、Nginx与Tomcat有一定的理解和掌握,同时也需要投入一些时间去研究和配置,但是一旦你把它运行起来,你将会发现,这一切都是值得的。
170 11
|
3月前
|
人工智能 负载均衡 Cloud Native
云原生之负载均衡策略
ai必学之负载均衡 @[TOC]轮询处理;weight权重;ip_hash
|
6月前
|
负载均衡 算法 应用服务中间件
Nginx长连接负载均衡详细说明以及案例
本文详细介绍了Nginx长连接负载均衡的配置与原理。长连接(Keepalive)允许客户端和服务器保持连接,减少建立和关闭连接的开销。Nginx支持多种负载均衡算法,如轮询、IP哈希等。通过在Nginx配置文件中使用`upstream`模块和`keepalive`指令,可以实现长连接负载均衡,从而提高系统的性能和响应速度。示例配置展示了如何设置后端服务器组、长连接数及HTTP/1.1协议,确保连接复用,降低延迟。
409 5
|
8月前
|
负载均衡 算法
架构学习:7种负载均衡算法策略
四层负载均衡包括数据链路层、网络层和应用层负载均衡。数据链路层通过修改MAC地址转发帧;网络层通过改变IP地址实现数据包转发;应用层有多种策略,如轮循、权重轮循、随机、权重随机、一致性哈希、响应速度和最少连接数均衡,确保请求合理分配到服务器,提升性能与稳定性。
1782 11
架构学习:7种负载均衡算法策略
|
8月前
|
负载均衡 IDE Java
SpringBoot整合XXL-JOB【04】- 以GLUE模式运行与执行器负载均衡策略
在本节中,我们将介绍XXL-JOB的GLUE模式和集群模式下的路由策略。GLUE模式允许直接在线上改造方法为定时任务,无需重新部署。通过一个测试方法,展示了如何在调度中心配置并使用GLUE模式执行定时任务。接着,我们探讨了多实例环境下的负载均衡策略,确保任务不会重复执行,并可通过修改路由策略(如轮训)实现任务在多个实例间的均衡分配。最后,总结了GLUE模式和负载均衡策略的应用,帮助读者更深入理解XXL-JOB的使用。
389 9
SpringBoot整合XXL-JOB【04】-  以GLUE模式运行与执行器负载均衡策略