腾讯面试:说说6大Nginx负载均衡?手写一下权重轮询策略?

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
EMR Serverless StarRocks,5000CU*H 48000GB*H
应用型负载均衡 ALB,每月750个小时 15LCU
简介: 尼恩,一位资深架构师,分享了关于负载均衡及其策略的深入解析,特别是基于权重的负载均衡策略。文章不仅介绍了Nginx的五大负载均衡策略,如轮询、加权轮询、IP哈希、最少连接数等,还提供了手写加权轮询算法的Java实现示例。通过这些内容,尼恩帮助读者系统化理解负载均衡技术,提升面试竞争力,实现技术上的“肌肉展示”。此外,他还提供了丰富的技术资料和面试指导,助力求职者在大厂面试中脱颖而出。

尼恩说在前面

在40岁老架构师 尼恩的读者交流群(50+)中,最近有小伙伴拿到了一线互联网企业如得物、阿里、滴滴、极兔、有赞、希音、百度、网易、美团的面试资格,遇到很多很重要的面试题:

1.讲一下什么是负载均衡,什么是轮询策略、随机策略、哈希策略

2.讲一下什么是 基于权重的负载均衡 策略?

3 手写一个 基于权重的负载均衡 策略?

最近有小伙伴在面试 腾讯,又遇到了相关的面试题。小伙伴懵了,因为没有遇到过,所以支支吾吾的说了几句,面试官不满意,面试挂了。

所以,尼恩给大家做一下系统化、体系化的梳理,使得大家内力猛增,可以充分展示一下大家雄厚的 “技术肌肉”,让面试官爱到 “不能自已、口水直流”,然后实现”offer直提”。

当然,这道面试题,以及参考答案,也会收入咱们的 《尼恩Java面试宝典PDF》V171版本,供后面的小伙伴参考,提升大家的 3高 架构、设计、开发水平。

最新《尼恩 架构笔记》《尼恩高并发三部曲》《尼恩Java面试宝典》的PDF,请关注本公众号【技术自由圈】获取,回复:领电子书

1. 为什么需要负载均衡

负载均衡 解决访问统一入口的请求分发/请求路由的问题,我们可以在集群前面增加负载均衡设备,实现流量分发。

当系统面临大量用户访问,负载过高的时候,通常会使用增加服务器数量来进行横向扩展,使用集群和负载均衡提高整个系统的处理能力。

从单机网站到分布式网站,很重要的区别是业务拆分和分布式部署,将应用拆分后,部署到不同的机器上,实现大规模分布式系统。

分布式和业务拆分解决了,从集中到分布的问题,但是每个部署的独立业务还存在单点的问题和访问统一入口问题,为解决单点故障,我们可以采取冗余的方式,将相同的应用部署到多台机器上。

在服务器集群中,Nginx起到一个代理服务器的角色(即反向代理),

负载均衡 的作用: 为了避免单独一个服务器压力过大,将来自用户的请求转发给不同的服务器。

在这里插入图片描述

2. Nginx的5大负载均衡策略策略

负载均衡用于从“upstream”模块定义的后端服务器列表中选取一台服务器接受用户的请求。

一个最基本的upstream模块是这样的,模块内的server是服务器列表:

#动态服务器组
upstream backend_group{
   
    server localhost:8080; #backend  1
    server localhost:8081; #backend  2
    server localhost:8082; #backend  3
    server localhost:8083; #backend  4
}
  • 192.168.1.1:80:指定后端真实服务器可以是域名或ip,默认是80端口
  • weight:指定每个后端主机的调度的权重,默认为1
  • max_conns:指定后端主机最大并发连接数
  • max_fails:指定后端主机健康检查多少次失败后才将主机标记为不可用(默认1次,0为不做健康检测)
  • fail_timeout:指定后端主机健康检测超时多少时间为一次失败(默认10秒)
  • backup:指定sorry_server,当所有后端主机健康检测失败时,会显示此服务器的页面
  • down:将当前主机标记为不可用(维护时使用)

在upstream模块配置完成后,要让指定的访问反向代理到服务器列表:

#其他页面反向代理到backend 容器
location ~ .*${
   
    index index.jsp index.html;
    proxy_pass http://backend_group;
}

这就是最基本的负载均衡实例,但这不足以满足实际需求;目前Nginx服务器的upstream模块支持6种方式的分配:

负载均衡策略

轮循 默认方式
Weight 权重方式
Ip_hash 依据ip分配方式
Lease_conn 最少连接方式
Fair(第三方) 响应时间方式
Url_hash(第三方) 依据url分配方式

在这里,只详细说明Nginx自带的负载均衡策略,第三方不多描述。

2.1. roundrobin 轮询 策略

尼恩提示大家,nginx 缺省配置就是roundrobin 轮询策略。

roundrobin 最基本的配置方法,上面的例子就是轮询的方式,它是upstream模块默认的负载均衡默认策略。

roundrobin 策略中,每个请求会按时间顺序逐一分配到不同的后端服务器。

在这里插入图片描述

roundrobin 有如下参数:

fail_timeout 与max fails结合使用
max_fails 设置在fail timeout参数设置的时间内最大失败次数,如果在这个时间内,所有针对该服务器的请求都失败了,那么认为该服务器会被认为是停机了
fail_time 服务器会被认为停机的时间长度,默认为10s。
backup 标记该服务器为备用服务器。当主服务器停止时,请求会被发送到它这里。
down 标记服务器永久停机了。

注意:

  • 在轮询中,如果服务器down掉了,会自动剔除该服务器。
  • 此策略适合服务器配置相当,无状态且短平快的服务使用。

轮询很容易实现,将请求按顺序轮流分配到后台服务器上,均衡的对待每一台服务器,而不关心服务器实际的连接数和当前的系统负载。
适合场景:适合于应用服务器硬件都相同的情况。

2.2. 加权 轮循 weighted roundrobin

权重方式,在轮询策略的基础上指定轮询的几率。

在轮询的基础上根据硬件配置不同,按权重分发到不同的服务器。

weighted roundrobin 加权 轮循 是:能者多劳的思想。

weighted roundrobin 加权 轮循 的策略是:

  • 给高性能的机器分配更高的权重,使其能处理更多的请求,
  • 而性能低、负载高的机器,配置较低的权重,让其处理较少的请求。

在这里插入图片描述

加权 轮循 weighted roundrobin 例子如下:

#动态服务器组
upstream backend_group{
   
    server localhost:8080  weight=2; #backend  1
    server localhost:8081; #backend 2
    server localhost:8082; #backend 3
    server localhost:8083; #backend 4
}

在该例子中,weight参数用于指定轮询几率,weight的默认值为1;

weight的数值与访问比率成正比,比如 backend 1的weight的数值为2,其 被访问的几率为其他服务器的两倍。

注意:

  • 权重越高分配到需要处理的请求越多。
  • 此策略可以与least_conn和ip_hash结合使用。
  • 此策略比较适合服务器的硬件配置差别比较大的情况。

2.3. ip_hash

根据服务消费者请求客户端的IP地址,通过哈希函数计算得到一个哈希值,将此哈希值和服务器列表的大小进行取模运算,得到的结果便是要访问的服务器地址的序号。

在这里插入图片描述

ip_hash 指定负载均衡器按照基于客户端IP的分配方式,这个方法确保了相同的客户端的请求一直发送到相同的服务器,以保证session会话。

这样每个访客都固定访问一个后端服务器,可以解决session不能跨服务器的问题。

#动态服务器组
upstream backend_group{
   
    ip_hash;  #保证每个访客固定访问一个后端服务器
    server localhost:8080 ; #backend  1
    server localhost:8081; #backend  2
    server localhost:8082; #backend  3
    server localhost:8083 ; #backend 4 
}

注意:

  • 在nginx版本1.3.1之前,不能在ip_hash中使用权重(weight)。
  • ip_hash不能与backup同时使用。
  • 此策略适合有状态服务,比如session。
  • 当有服务器需要剔除,必须手动down掉。

ip_hash 适合场景:根据请求的来源IP进行hash计算,同一IP地址的客户端,当后端服务器列表不变时,它每次都会映射到同一台后端服务器进行访问。

2.4. least_conn

roundrobin 轮询算法是把请求平均的转发给各个后端,使它们的负载大致相同;但是,有些请求占用的时间很长,会导致其所在的后端负载较高。

least_conn 把请求转发给连接数较少的后端服务器。

least_conn 记录每个服务器正在处理的请求数,把新的请求分发到最少连接的服务器上。

这种情况下,least_conn这种方式就可以达到更好的负载均衡效果。

#动态服务器组
upstream backend_group{
   
    least_conn;  #把请求转发给连接数较少的后端服务器
    server localhost:8080 ; #backend  1
    server localhost:8081; #backend  2
    server localhost:8082; #backend  3
    server localhost:8083 ; #backend 4 
}

注意

  • 此负载均衡策略适合请求处理时间长短不一造成服务器过载的情况。

2.5. 第三方策略:fair

第三方的负载均衡策略的实现需要安装第三方插件。

fair 策略是 按照服务器端的响应时间来分配请求,响应时间短的优先分配。

#动态服务器组
upstream backend_group{
   
    server localhost:8080; #backend  7.0
    server localhost:8081; #backend  8.0
    server localhost:8082; #backend  8.5
    server localhost:8083; #backend  9.0
    fair;  #实现响应时间短的优先分配
}

2.6. 第三方策略:url_hash

按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,要配合缓存命中来使用。

同一个资源多次请求,可能会到达不同的服务器上,导致不必要的多次下载,缓存命中率不高,以及一些资源时间的浪费。

而使用url_hash,可以使得同一个url(也就是同一个资源请求)会到达同一台服务器,一旦缓存住了资源,再此收到请求,就可以从缓存中读取。

#动态服务器组
upstream backend_group{
   
    hash $request_uri;  #实现每个url定向到同一个后端服务器
    server localhost:8080; #backend  7.0
    server localhost:8081; #backend  8.0
    server localhost:8082; #backend  8.5
    server localhost:8083; #backend  9.0
}

以上便是6种负载均衡策略的实现方式,其中除了轮询和轮询权重外,都是Nginx根据不同的算法实现的。

在实际运用中,需要根据不同的场景选择性运用,大都是多种策略结合使用以达到实际需求。

3. 手写一个 基于权重的负载均衡Weighted Round Robin算法

设计一个类似于 Nginx 基于权重的负载均衡算法,需要考虑以下几个核心要素:

  • 服务器的权重、

  • 负载均衡策略、

  • 状态维护机制等。

手写一个 基于权重的负载均衡Weighted Round Robin算法,以下是具体的设计步骤:

3.1. 服务器列表与权重设定

每个服务器都有一个权重,权重值越大,表示服务器的处理能力越强,收到的请求应该越多。

服务器列表可以用一个数组或链表来表示,包含服务器的 IP、当前负载状态、最大处理能力等。

servers = [
    {"ip": "192.168.1.1", "weight": 5, "current_weight": 0},
    {"ip": "192.168.1.2", "weight": 3, "current_weight": 0},
    {"ip": "192.168.1.3", "weight": 2, "current_weight": 0}
]

3.2. 加权轮询算法

加权轮询是一种简单但有效的负载均衡算法。

每次将请求发送到当前权重最高的服务器上,并对该服务器的当前权重进行调整。

具体步骤:

  1. 初始化总权重:计算所有服务器权重的总和。
  2. 选择服务器:遍历服务器列表,选出current_weight最大的服务器。
  3. 调整权重
    • 对选择的服务器,将其current_weight减去总权重;
    • 对所有服务器,将current_weight加上各自的权重。
  4. 发送请求:将请求分发给选中的服务器。

3.3. 伪代码 实现一个Weighted Round Robin算法:

def weighted_round_robin(servers):
    total_weight = sum(server['weight'] for server in servers)
    selected = None

    for server in servers:
        # 更新 current_weight
        server['current_weight'] += server['weight']

        # 选择 current_weight 最大的服务器
        if selected_server==null or server['current_weight'] > selected['current_weight']:
            selected_server = server

    # 将选择的服务器的 current_weight 减去总权重
    selected_server['current_weight'] -= total_weight

    return selected_server

3.4. 基于权重的负载均衡Weighted Round Robin算法示例:

假设有三台服务器,权重分别为 5、3、2。

初始状态下所有服务器的current_weight都为 0,负载均衡算法的分配过程如下:

请求 服务器1权重 服务器2权重 服务器3权重 选择的服务器
1 5 3 2 服务器1
2 0 6 4 服务器2
3 5 3 6 服务器3
4 10 6 4 服务器1

通过这种方式,较高权重的服务器会优先获得更多请求,但每台服务器的负载会相对均衡。

4. 手写Java 版本的 Weighted Round Robin算法

可以在 Java 中实现一个加权轮询(Weighted Round Robin)的负载均衡器。

Weighted Round Robin算法将按照服务器的权重分配请求,确保高权重的服务器接收到更多请求。

4.1. 服务器类设计

首先,需要设计一个服务器类 Server,包括服务器的 IP、权重、当前权重和当前负载等属性。

package com.crazymakercircle.loadbalance;

import lombok.Data;

@Data
public class Server {
    private  int usedCount;   //使用次数
    private String ip;  //ip
    private int weight;  //权重
    private int currentWeight;  //当前权重

    public Server(String ip, int weight) {
        this.ip = ip;
        this.weight = weight;
        this.currentWeight = 0;
        this.usedCount = 0;
    }


    public void usedOne() {

        System.out.println("选中之后: ip = " + ip + " currentWeight = " + currentWeight + " weight = " + weight);
        usedCount++;
    }

}

4.2. 加权轮询负载均衡算法

设计一个 WeightedRoundRobinBalancer 类来实现加权轮询算法,管理多个 Server 实例的请求分发。

package com.crazymakercircle.loadbalance;

import java.util.List;
public class WeightedRoundRobinBalancer {
    private List<Server> servers; //服务列表
    private int totalWeight; //总权重

    public WeightedRoundRobinBalancer(List<Server> servers) {
        this.servers = servers;
        // 初始化总权重
        this.totalWeight = servers.stream().mapToInt(Server::getWeight).sum();
        System.out.println("totalWeight = " + totalWeight);
    }

    // 获取当前轮询中要选择的服务器
    public Server doSelect() {
        Server selectedServer = null;

        for (Server server : servers) {
            // 增加当前权重
            server.setCurrentWeight(server.getCurrentWeight() + server.getWeight());
            // 选择 currentWeight 最大的服务器
            if (selectedServer == null || server.getCurrentWeight() > selectedServer.getCurrentWeight()) {
                selectedServer = server;
            }
        }
        // 将选择的服务器 currentWeight 减去总权重
        if (selectedServer != null) {
            selectedServer.setCurrentWeight(selectedServer.getCurrentWeight() - totalWeight);
        }
        selectedServer.usedOne();
        return selectedServer;
    }
}

4.3. 测试代码

接下来,我们可以创建一些服务器并测试负载均衡器的效果:

import java.util.Arrays;

public class LoadBalancerTest {
    public static void main(String[] args) {
        // 创建服务器列表,服务器的权重分别为 5, 3, 2
        Server server1 = new Server("192.168.1.1", 5);
        Server server2 = new Server("192.168.1.2", 3);
        Server server3 = new Server("192.168.1.3", 2);

        WeightedRoundRobinBalancer balancer = new WeightedRoundRobinBalancer(
            Arrays.asList(server1, server2, server3)
        );

        // 模拟 10 次请求,观察每次请求分配到的服务器
        for (int i = 0; i < 10; i++) {
            Server selectedServer = balancer.getServer();
            System.out.println("Request " + (i + 1) + " is handled by server: " + selectedServer.getIp());
        }
    }
}

4.4. 结果输出

根据不同服务器的权重,负载均衡器会以加权轮询的方式分配请求:

totalWeight = 10
选中之后: ip = 192.168.1.1 currentWeight = -5 weight = 5
>>>>>>> 请求 1 路由到: 192.168.1.1
选中之后: ip = 192.168.1.2 currentWeight = -4 weight = 3
>>>>>>> 请求 2 路由到: 192.168.1.2
选中之后: ip = 192.168.1.3 currentWeight = -4 weight = 2
>>>>>>> 请求 3 路由到: 192.168.1.3
选中之后: ip = 192.168.1.1 currentWeight = 0 weight = 5
>>>>>>> 请求 4 路由到: 192.168.1.1
选中之后: ip = 192.168.1.1 currentWeight = -5 weight = 5
>>>>>>> 请求 5 路由到: 192.168.1.1
选中之后: ip = 192.168.1.2 currentWeight = -2 weight = 3
>>>>>>> 请求 6 路由到: 192.168.1.2
选中之后: ip = 192.168.1.1 currentWeight = -5 weight = 5
>>>>>>> 请求 7 路由到: 192.168.1.1
选中之后: ip = 192.168.1.3 currentWeight = -4 weight = 2
>>>>>>> 请求 8 路由到: 192.168.1.3
选中之后: ip = 192.168.1.2 currentWeight = -3 weight = 3
>>>>>>> 请求 9 路由到: 192.168.1.2
选中之后: ip = 192.168.1.1 currentWeight = 0 weight = 5
>>>>>>> 请求 10 路由到: 192.168.1.1
选中之后: ip = 192.168.1.1 currentWeight = -5 weight = 5
>>>>>>> 请求 11 路由到: 192.168.1.1
选中之后: ip = 192.168.1.2 currentWeight = -4 weight = 3
>>>>>>> 请求 12 路由到: 192.168.1.2
选中之后: ip = 192.168.1.3 currentWeight = -4 weight = 2
>>>>>>> 请求 13 路由到: 192.168.1.3
选中之后: ip = 192.168.1.1 currentWeight = 0 weight = 5
>>>>>>> 请求 14 路由到: 192.168.1.1
选中之后: ip = 192.168.1.1 currentWeight = -5 weight = 5
>>>>>>> 请求 15 路由到: 192.168.1.1
选中之后: ip = 192.168.1.2 currentWeight = -2 weight = 3
>>>>>>> 请求 16 路由到: 192.168.1.2
选中之后: ip = 192.168.1.1 currentWeight = -5 weight = 5
>>>>>>> 请求 17 路由到: 192.168.1.1
选中之后: ip = 192.168.1.3 currentWeight = -4 weight = 2
>>>>>>> 请求 18 路由到: 192.168.1.3
选中之后: ip = 192.168.1.2 currentWeight = -3 weight = 3
>>>>>>> 请求 19 路由到: 192.168.1.2
选中之后: ip = 192.168.1.1 currentWeight = 0 weight = 5
>>>>>>> 请求 20 路由到: 192.168.1.1
=======》打印 总次数分布
192.168.1.1:10
192.168.1.2:6
192.168.1.3:4

4.5. 动态调整与状态维护

这个实现只是最基本的加权轮询。为了提升实际使用的性能,还可以做一些优化:

  • 动态权重调整:根据服务器的实时负载,动态调整权重。比如,监控 CPU 或内存使用率,负载高的服务器权重减少,负载低的权重增加。
  • 健康检查:定期检查服务器状态,将不可用的服务器从列表中移除,以防止请求被发送到已经不可用的服务器。
public void healthCheck() {
    // 遍历所有服务器,检查其健康状态
    servers.removeIf(server -> !isHealthy(server));
}

private boolean isHealthy(Server server) {
    // 实现对服务器的健康检查,返回 true 表示健康
    return true;  // 简单示例,实际可以发送请求或 ping 检查服务器状态
}

4.6. 优化与扩展

  • 最小连接数优先:在加权轮询的基础上,还可以结合最小连接数策略,优先将请求分配给当前连接数最少的服务器。
  • 一致性哈希:为提高稳定性,避免请求在服务器上下线时大量转移,可以结合一致性哈希算法,使得请求尽可能落在相同的服务器上。

这种基于加权轮询的负载均衡算法简单、高效,特别适合处理不同性能的服务器集群。结合健康检查、动态权重调整等机制,可以进一步优化负载均衡的效果。

总结

通过 Java 实现的基于权重的负载均衡算法,能够根据服务器的不同权重来智能地分发请求,确保高权重的服务器承载更多的流量。

同时,结合动态权重调整和健康检查机制,可以进一步优化该负载均衡算法的性能和稳定性。

说在最后:有问题找老架构取经‍

关于讲一下什么是 基于权重的负载均衡 策略?尼恩给大家梳理的满分答案,已经彻底出来了。

通过这个问题的深度回答,可以充分展示一下大家雄厚的 “技术肌肉”,让面试官爱到 “不能自已、口水直流”,然后实现”offer直提”。

在面试之前,建议大家系统化的刷一波 5000页《尼恩Java面试宝典PDF》,里边有大量的大厂真题、面试难题、架构难题。

很多小伙伴刷完后, 吊打面试官, 大厂横着走。

在刷题过程中,如果有啥问题,大家可以来 找 40岁老架构师尼恩交流。

另外,如果没有面试机会,可以找尼恩来改简历、做帮扶。

遇到职业难题,找老架构取经, 可以省去太多的折腾,省去太多的弯路。

尼恩指导了大量的小伙伴上岸,前段时间,刚指导一个40岁+被裁小伙伴,拿到了一个年薪100W的offer。

狠狠卷,实现 “offer自由” 很容易的, 前段时间一个武汉的跟着尼恩卷了2年的小伙伴, 在极度严寒/痛苦被裁的环境下, offer拿到手软, 实现真正的 “offer自由” 。

尼恩技术圣经系列PDF

……完整版尼恩技术圣经PDF集群,请找尼恩领取

《尼恩 架构笔记》《尼恩高并发三部曲》《尼恩Java面试宝典》PDF,请到下面公号【技术自由圈】取↓↓↓

相关实践学习
SLB负载均衡实践
本场景通过使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,快速解决服务器响应速度慢的问题
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
相关文章
|
24天前
|
负载均衡 算法 搜索推荐
Nginx 常用的负载均衡算法
【10月更文挑战第17天】在实际应用中,我们需要根据具体的情况来选择合适的负载均衡算法。同时,还可以结合其他的优化措施,如服务器健康检查、动态调整权重等,来进一步提高负载均衡的效果和系统的稳定性。
112 59
|
20天前
|
负载均衡 算法 应用服务中间件
Nginx 常用的负载均衡算法
【10月更文挑战第22天】不同的负载均衡算法各有特点和适用场景。在实际应用中,需要根据具体的业务需求、服务器性能和网络环境等因素来选择合适的算法。
23 3
|
24天前
|
负载均衡 监控 应用服务中间件
除了 Nginx,还有以下一些常见的负载均衡工具
【10月更文挑战第17天】这些负载均衡工具各有特点和优势,在不同的应用场景中发挥着重要作用。选择合适的负载均衡工具需要综合考虑性能、功能、稳定性、成本等因素。
|
1月前
|
负载均衡 应用服务中间件 nginx
Nginx的6大负载均衡策略及权重轮询手写配置
【10月更文挑战第9天】 Nginx是一款高性能的HTTP服务器和反向代理服务器,它在处理大量并发请求时表现出色。Nginx的负载均衡功能可以将请求分发到多个服务器,提高网站的吞吐量和可靠性。以下是Nginx支持的6大负载均衡策略:
136 7
|
1月前
|
缓存 负载均衡 算法
nginx学习:配置文件详解,负载均衡三种算法学习,上接nginx实操篇
Nginx 是一款高性能的 HTTP 和反向代理服务器,也是一个通用的 TCP/UDP 代理服务器,以及一个邮件代理服务器和通用的 HTTP 缓存服务器。
66 0
nginx学习:配置文件详解,负载均衡三种算法学习,上接nginx实操篇
|
23天前
|
应用服务中间件 BI nginx
Nginx的location配置详解
【10月更文挑战第16天】Nginx的location配置详解
|
1月前
|
缓存 负载均衡 安全
Nginx常用基本配置总结:从入门到实战的全方位指南
Nginx常用基本配置总结:从入门到实战的全方位指南
248 0
|
1月前
|
应用服务中间件 Linux nginx
Jetson 环境安装(四):jetson nano配置ffmpeg和nginx(亲测)之编译错误汇总
这篇文章是关于在Jetson Nano上配置FFmpeg和Nginx时遇到的编译错误及其解决方案的汇总。
87 4
|
3天前
|
存储 负载均衡 中间件
Nginx反向代理配置详解,图文全面总结,建议收藏
Nginx 是大型架构必备中间件,也是大厂喜欢考察的内容,必知必会。本篇全面详解 Nginx 反向代理及配置,建议收藏。
Nginx反向代理配置详解,图文全面总结,建议收藏
|
16天前
|
应用服务中间件 API nginx
nginx配置反向代理404问题
【10月更文挑战第18天】本文介绍了使用Nginx进行反向代理的配置方法,解决了404错误、跨域问题和302重定向问题。关键配置包括代理路径、请求头设置、跨域头添加以及端口转发设置。通过调整`proxy_set_header`和添加必要的HTTP头,实现了稳定的服务代理和跨域访问。
nginx配置反向代理404问题