【Nginx】实现负载均衡的⼏种⽅式(转)

本文涉及的产品
网络型负载均衡 NLB,每月750个小时 15LCU
应用型负载均衡 ALB,每月750个小时 15LCU
传统型负载均衡 CLB,每月750个小时 15LCU
简介: 【Nginx】实现负载均衡的⼏种⽅式(转)

【Nginx】实现负载均衡的⼏种⽅式


1 概念


  要理解负载均衡,必须先搞清楚正向代理和反向代理。


注:

  正向代理,代理的是⽤户。

  反向代理,代理的是服务器。


2 什么是负载均衡


当⼀台服务器的单位时间内的访问量越⼤时,服务器压⼒就越⼤,⼤到超过⾃⾝承受能⼒时,服务器就会崩溃。为了避免服务器崩溃,让⽤户有更好的体验,我们通过负载均衡的⽅式来分担服务器压⼒。


我们可以建⽴很多很多服务器,组成⼀个服务器集群,当⽤户访问⽹站时,先访问⼀个中间服务器,在让这个中间服务器在服务器集群中选择⼀个压⼒较⼩的服务器,然后将该访问请求引⼊该服务器。如此以来,⽤户的每次访问,都会保证服务器集群中的每个服务器压⼒趋于平衡,分担了服务器压⼒,避免了服务器崩溃的情况。


负载均衡是⽤反向代理的原理实现的。


3 负载均衡的⼏种常⽤⽅式


① 轮询(默认)


每个请求按时间顺序逐⼀分配到不同的后端服务器,如果后端服务器down掉,能⾃动剔除。


upstream backserver {
    server 192.168.0.14;
    server 192.168.0.15;
}


② weight


指定轮询⼏率,weight和访问⽐率成正⽐,⽤于后端服务器性能不均的情况。


upstream backserver {
    server 192.168.0.14 weight=3;
    server 192.168.0.15 weight=7;
}


权重越⾼,在被访问的概率越⼤,如上例,分别是30%,70%。


③ ip_hash


  上述⽅式存在⼀个问题就是说,在负载均衡系统中,假如⽤户在某台服务器上登录了,那么该⽤户第⼆次请求的时候,因为我们是负载均衡系统,每次请求都会重新定位到服务器集群中的某⼀个,那么已经登录某⼀个服务器的⽤户再重新定位到另⼀个服务器,其登录信息将会丢失,这样显然是不妥的。


  我们可以采⽤ip_hash指令解决这个问题,如果客户已经访问了某个服务器,当⽤户再次访问时,会将该请求通过哈希算法,⾃动定位到该服务器。


  每个请求按访问ip的hash结果分配,这样每个访客固定访问⼀个后端服务器,可以解决session的问题。


upstream backserver {
    ip_hash;
    server 192.168.0.14:88;
    server 192.168.0.15:80;
}


④ fair(第三⽅)


按后端服务器的响应时间来分配请求,响应时间短的优先分配。


upstream backserver {
    server server1;
    server server2;
    fair;
}


⑤ url_hash(第三⽅)


按访问url的hash结果来分配请求,使每个url定向到同⼀个后端服务器,后端服务器为缓存时⽐较有效。


upstream backserver {
    server squid1:3128;
    server squid2:3128;
    hash $request_uri;
    hash_method crc32;
}


每个设备的状态设置为:


  • down:表⽰单前的server暂时不参与负载。
  • weight:默认为1(weight越⼤,负载的权重就越⼤)
  • max_fails:允许请求失败的次数默认为1.当超过最⼤次数时,返回模块定义的错误proxy_next_upstream模块定义的错误。
  • fail_timeout:max_fails次失败后,暂停的时间。
  • backup:其它所有的⾮backup机器down或者忙的时候,请求backup机器。所以这台机器压⼒会最轻。


4 配置实例


#user  nobody;
worker_processes  4;
events {
    # 最⼤并发数
    worker_connections  1024;
}
http{
    # 待选服务器列表
    upstream myproject{
        # ip_hash指令,将同⼀⽤户引⼊同⼀服务器。
        ip_hash;
        server 125.219.42.4 fail_timeout=60s;
        server 172.31.2.183;
        }
    server{
                # 监听端⼝
                listen 80;
                # 根⽬录下
                location / {
                    # 选择哪个服务器列表
                    proxy_pass http://myproject;
                }
            }
}


文章小尾巴


文章写作、模板、文章小尾巴可参考:《写作“小心思”》


  感谢你看到最后,最后再说两点~


  ①如果你持有不同的看法,欢迎你在文章下方进行留言、评论。

  ②如果对你有帮助,或者你认可的话,欢迎给个小点赞,支持一下~


  我是南方者,一个热爱计算机更热爱祖国的南方人。


  (文章内容仅供学习参考,如有侵权,非常抱歉,请立即联系作者删除。)



相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
目录
相关文章
|
8月前
|
负载均衡 网络协议 算法
一文读懂什么是Nginx?它能否实现IM的负载均衡?
Nginx(及其衍生产品)是目前被大量使用的服务端反向代理和负载均衡方案,从某种意义上来讲,Nginx几乎是低成本、高负载Web服务端代名词。 如此深入人心的Nginx,很多人也想当然的认为,在IM或消息推送等场景下是否也能使用Nginx来解决负载均衡问题? 另外,即时通讯网的论坛和QQ群里也经常有人问起,Nginx是否能支持TCP、UDP、WebSocket的负载
199 4
|
12月前
|
负载均衡 算法 搜索推荐
Nginx 常用的负载均衡算法
【10月更文挑战第17天】在实际应用中,我们需要根据具体的情况来选择合适的负载均衡算法。同时,还可以结合其他的优化措施,如服务器健康检查、动态调整权重等,来进一步提高负载均衡的效果和系统的稳定性。
307 59
|
5月前
|
负载均衡 前端开发 应用服务中间件
Tomcat的负载均衡和动静分离(与nginx联动)
总的来说,负载均衡和动静分离是提高Web应用性能的两个重要手段。通过合理的配置和使用,我们可以让Web应用更好地服务于用户。
168 21
|
5月前
|
负载均衡 Java 应用服务中间件
Tomcat与Nginx的负载均衡与动静分离技巧
总的来说,Tomcat和Nginx各有各的优点,在负载均衡和动静分离这两方面它们都有很好的应用。灵活使用这两个工具能够让Web应用具有更好的扩展性和用户体验。
152 14
|
5月前
|
负载均衡 前端开发 JavaScript
LVS-DR模式、keepalived、Nginx与Tomcat合作,打造动静分离,高效负载均衡与高可用性
为了采用这样的架构,你需要对LVS-DR、Keepalived、Nginx与Tomcat有一定的理解和掌握,同时也需要投入一些时间去研究和配置,但是一旦你把它运行起来,你将会发现,这一切都是值得的。
191 11
|
7月前
|
负载均衡 算法 应用服务中间件
Nginx长连接负载均衡详细说明以及案例
本文详细介绍了Nginx长连接负载均衡的配置与原理。长连接(Keepalive)允许客户端和服务器保持连接,减少建立和关闭连接的开销。Nginx支持多种负载均衡算法,如轮询、IP哈希等。通过在Nginx配置文件中使用`upstream`模块和`keepalive`指令,可以实现长连接负载均衡,从而提高系统的性能和响应速度。示例配置展示了如何设置后端服务器组、长连接数及HTTP/1.1协议,确保连接复用,降低延迟。
449 5
|
7月前
|
负载均衡 应用服务中间件 nginx
如何使用nginx实现负载均衡?
如何使用nginx实现负载均衡?
|
12月前
|
负载均衡 监控 应用服务中间件
除了 Nginx,还有以下一些常见的负载均衡工具
【10月更文挑战第17天】这些负载均衡工具各有特点和优势,在不同的应用场景中发挥着重要作用。选择合适的负载均衡工具需要综合考虑性能、功能、稳定性、成本等因素。
1738 56
|
11月前
|
缓存 负载均衡 算法
如何配置Nginx反向代理以实现负载均衡?
如何配置Nginx反向代理以实现负载均衡?
|
10月前
|
弹性计算 负载均衡 网络协议
ECS中实现nginx4层7层负载均衡和ALB/NLB原SLB负载均衡
通过本文的介绍,希望您能深入理解并掌握如何在ECS中实现Nginx四层和七层负载均衡,以及如何使用ALB和NLB进行高效的负载均衡配置,以提高系统的性能和可靠性。
680 9

热门文章

最新文章