前端可以了解一下:nginx负载均衡

本文涉及的产品
应用型负载均衡 ALB,每月750个小时 15LCU
传统型负载均衡 CLB,每月750个小时 15LCU
网络型负载均衡 NLB,每月750个小时 15LCU
简介: 直接封面图可以发现:最左侧的便是客户机,中间的就是负载均衡的机器,最右侧的便是通过负载后真正访问的服务器,我这里只画了两台服务器,实际情况根据需求可能还会不断增加。

image.png


前言:大家好,我是 那个曾经的少年回来了。10年前我也曾经年轻过,如今已步入被淘汰的年龄,但如下幡然醒悟,所以活在当下,每天努力一点点,来看看2024年的时候自己会是什么样子吧,2024年的前端又会是什么样子,而2024年的中国乃至全球又会变成什么样子,如果你也有想法,那还不赶紧行动起来。期待是美好的,但是更重要的是要为美好而为之奋斗付诸于行动。


直接封面图可以发现:最左侧的便是客户机,中间的就是负载均衡的机器,最右侧的便是通过负载后真正访问的服务器,我这里只画了两台服务器,实际情况根据需求可能还会不断增加。


1、前端负载均衡实现


  • 先上一个前端版本,同一份打包编译后的文件,分别部署到one和two.


  • 因为我只有一台服务器,所以这里通过端口进行演示: one对应端口91,two对应端口92.


  • 通过upstream nginxlbdemo进行负载配置.


  • 最后通过proxy_pass反向代理 upstream.


  • 如果有修改nginx的配置文件,修改完毕后记得 nginx -s reload


nginx-lb.conf可以放到/etc/nginx/conf.d路径下


upstream nginxlbdemo{
    server 127.0.0.1:91;
    server 127.0.0.1:92;
}
server {
    listen 90;
    location / {
      proxy_pass http://nginxlbdemo;
    } 
}
server {
    listen 91;
    root /usr/local/aehyok/nginx-lb/one;
    index index.html index.htm;
    if ($request_method = 'OPTIONS') {
        return 204;
    }
    location / {
      try_files $uri $uri/ = 404;
    } 
}
server {
    listen 92;
    root /usr/local/aehyok/nginx-lb/two;
    index index.html index.htm;
    if ($request_method = 'OPTIONS') {
        return 204;
    }
    location / {
      try_files $uri $uri/ = 404;
    } 
}


部署完毕后,通过电脑查看,我没办法做测试,只能通过停掉91或者停掉92来访问90,都是没问题的。 那这里只好通过node开启后端服务来测试一下。


2、node后端负载均衡


下面的代码算算是模拟91和92两个端口,相当于两台服务器,拷贝到linux服务器上,通过 node index.js运行起来


const http = require("http");
const port1 = 91
const server1 = http
  .createServer(function (req, res) {
    console.log(`Request: ${req.url}--port ${port1}`);
    res.end(`hello world! - ${port1}`);
  })
  .listen(port1, "127.0.0.1");
server1.once("listening", () => {
  console.log(`Server http://127.0.0.1:${port1}`);
});
const port2 = 92
const server2 = http
  .createServer(function (req, res) {
    console.log(`Request: ${req.url}--port ${port2}`);
    res.end(`hello world! - ${port2}`);
  })
  .listen(port2, "127.0.0.1");
server2.once("listening", () => {
  console.log(`Server http://127.0.0.1:${port2}`);
});


然后重新配置nginx-lb.conf,然后  nginx -s reload


upstream nginxlbdemo{
    server 127.0.0.1:91;
    server 127.0.0.1:92;
}
server {
    listen 90;
    location / {
      proxy_pass http://nginxlbdemo;
    } 
}


然后通http://139.159.245.209:90 ,你可以不断的刷新,就可以看到node 后台的请求日志 91和92端口在不停的切换


image.png

image.png


3、负载均衡的分类


3.1、默认轮询


nginx默认就是轮询,其权重默认都是1,服务器请求的顺序:


  • 第1个请求 91端口
  • 第2个请求 92端口
  • 第3个请求 91端口
  • 第4个请求 92端口
  • 第5个请求 91端口
  • 第6个请求 92端口
  • 第7个请求 91端口
  • 第8个请求 92端口 ....


upstream nginxlbdemo{
    server 127.0.0.1:91; 
    server 127.0.0.1:92;  
}


3.2、 加权轮询


nginx根据配置的权重大小而分发给对应服务器对应权重 数量的其你,其权重默认都是1,服务器请求的顺序:


  • 第1个请求 91端口
  • 第2个请求 92端口
  • 第3个请求 92端口
  • 第4个请求 91端口
  • 第5个请求 92端口
  • 第6个请求 92端口
  • 第7个请求 91端口
  • 第8个请求 92端口
  • 第9个请求 92端口


upstream nginxlbdemo{
    server 127.0.0.1:91 weight=1;
    server 127.0.0.1:92 weight=2; 
}


3.3、 ip_hash


nginx 会让相同的客户端ip请求相同的服务器。


upstream nginxlbdemo{
    ip_hash;
    server 127.0.0.1:91;
    server 127.0.0.1:92; 
}


3.4、 热备


开始时负载均衡90只会访问91端口,如果91端口服务器发生故障,才会开启第二台服务器给提供服务。


upstream nginxlbdemo{
    ip_hash;
    server 127.0.0.1:91;
    server 127.0.0.1:92 backup; 
}


4、总结


nginx在后端非常的常见,但对于一向爱折腾的我有必要去学习一下。了解完以后。便可以发现,灰度发布其实就可以通过加权轮询来处理,当然nginx的体系还是非常庞大的继续学习吧。


我的个人博客:vue.tuokecat.com/blog


我的个人github:github.com/aehyok


我的前端项目:pnpm + monorepo + qiankun + vue3 + vite3 + 工具库、组件库 + 工程化 + 自动化


不断完善中,整体框架都有了


在线预览:vue.tuokecat.com


github源码:github.com/aehyok/vue-…

相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
目录
相关文章
|
9月前
|
负载均衡 网络协议 算法
一文读懂什么是Nginx?它能否实现IM的负载均衡?
Nginx(及其衍生产品)是目前被大量使用的服务端反向代理和负载均衡方案,从某种意义上来讲,Nginx几乎是低成本、高负载Web服务端代名词。 如此深入人心的Nginx,很多人也想当然的认为,在IM或消息推送等场景下是否也能使用Nginx来解决负载均衡问题? 另外,即时通讯网的论坛和QQ群里也经常有人问起,Nginx是否能支持TCP、UDP、WebSocket的负载
259 4
|
负载均衡 算法 搜索推荐
Nginx 常用的负载均衡算法
【10月更文挑战第17天】在实际应用中,我们需要根据具体的情况来选择合适的负载均衡算法。同时,还可以结合其他的优化措施,如服务器健康检查、动态调整权重等,来进一步提高负载均衡的效果和系统的稳定性。
360 59
|
6月前
|
负载均衡 前端开发 应用服务中间件
Tomcat的负载均衡和动静分离(与nginx联动)
总的来说,负载均衡和动静分离是提高Web应用性能的两个重要手段。通过合理的配置和使用,我们可以让Web应用更好地服务于用户。
208 21
|
6月前
|
负载均衡 Java 应用服务中间件
Tomcat与Nginx的负载均衡与动静分离技巧
总的来说,Tomcat和Nginx各有各的优点,在负载均衡和动静分离这两方面它们都有很好的应用。灵活使用这两个工具能够让Web应用具有更好的扩展性和用户体验。
194 14
|
6月前
|
负载均衡 前端开发 JavaScript
LVS-DR模式、keepalived、Nginx与Tomcat合作,打造动静分离,高效负载均衡与高可用性
为了采用这样的架构,你需要对LVS-DR、Keepalived、Nginx与Tomcat有一定的理解和掌握,同时也需要投入一些时间去研究和配置,但是一旦你把它运行起来,你将会发现,这一切都是值得的。
262 11
|
8月前
|
负载均衡 算法 应用服务中间件
Nginx长连接负载均衡详细说明以及案例
本文详细介绍了Nginx长连接负载均衡的配置与原理。长连接(Keepalive)允许客户端和服务器保持连接,减少建立和关闭连接的开销。Nginx支持多种负载均衡算法,如轮询、IP哈希等。通过在Nginx配置文件中使用`upstream`模块和`keepalive`指令,可以实现长连接负载均衡,从而提高系统的性能和响应速度。示例配置展示了如何设置后端服务器组、长连接数及HTTP/1.1协议,确保连接复用,降低延迟。
509 5
|
10月前
|
前端开发 应用服务中间件 nginx
docker安装nginx,前端项目运行
通过上述步骤,你可以轻松地在Docker中部署Nginx并运行前端项目。这种方法不仅简化了部署流程,还确保了环境的一致性,提高了开发和运维的效率。确保按步骤操作,并根据项目的具体需求进行相应的配置调整。
927 25
|
8月前
|
负载均衡 应用服务中间件 nginx
如何使用nginx实现负载均衡?
如何使用nginx实现负载均衡?
|
负载均衡 监控 应用服务中间件
除了 Nginx,还有以下一些常见的负载均衡工具
【10月更文挑战第17天】这些负载均衡工具各有特点和优势,在不同的应用场景中发挥着重要作用。选择合适的负载均衡工具需要综合考虑性能、功能、稳定性、成本等因素。
1874 56
|
缓存 负载均衡 算法
如何配置Nginx反向代理以实现负载均衡?
如何配置Nginx反向代理以实现负载均衡?

热门文章

最新文章

下一篇
oss云网关配置