Nginx+Tomcat实现反向代理与负载均衡入门

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
EMR Serverless StarRocks,5000CU*H 48000GB*H
应用型负载均衡 ALB,每月750个小时 15LCU
简介: Nginx+Tomcat实现反向代理与负载均衡入门

【1】反向代理


反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个服务器,该服务器就可称之为代理服务器。


由于代理服务器处在最终处理请求访问的服务器之前,因此可以在代理服务器上做负载均衡。实际上,互联网中也大量的存在反向代理服务器提供代理功能的同时也提供负载均衡的功能。


首先需要安装好Tomcat和Nginx

修改nginx.conf如下:

#user  nobody nobody;
worker_processes  4;
#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;
#pid        logs/nginx.pid;
events {
    use epoll;
    multi_accept on;
    worker_connections  65535;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    server_tokens off;
    server_names_hash_bucket_size 128;   
    client_header_buffer_size 32k;  
    large_client_header_buffers 4 32k;  
    client_max_body_size 1000m;
    tcp_nopush      on;
    tcp_nodelay     on;   
    keepalive_timeout  120;
    send_timeout 10; 
    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';
    #access_log  logs/access.log  main;
    sendfile        on;
    #gzip  on;
    server {
        // 监听本地 80端口的请求
        listen       80;
        // 多个域名用空格隔开
        server_name  localhost;
        #charset koi8-r;
        #access_log  logs/host.access.log  main;
    // 将80端口的请求转发到Tomcat监听的8080端口
        location / {
           proxy_pass http://localhost:8080;
       proxy_set_header Host $host;
       proxy_set_header X-Real-IP $remote_addr; 
       proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;   
        }
        #error_page  404              /404.html;
        # redirect server error pages to the static page /50x.html
        #
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
        # proxy the PHP scripts to Apache listening on 127.0.0.1:80
        #
        #location ~ \.php$ {
        #    proxy_pass   http://127.0.0.1;
        #}
        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
        #
        #location ~ \.php$ {
        #    root           html;
        #    fastcgi_pass   127.0.0.1:9000;
        #    fastcgi_index  index.php;
        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;
        #    include        fastcgi_params;
        #}
        # deny access to .htaccess files, if Apache's document root
        # concurs with nginx's one
        #
        #location ~ /\.ht {
        #    deny  all;
        #}
    }
    # another virtual host using mix of IP-, name-, and port-based configuration
    #
    #server {
    #    listen       8000;
    #    listen       somename:8080;
    #    server_name  somename  alias  another.alias;
    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}
    # HTTPS server
    #
    #server {
    #    listen       443 ssl;
    #    server_name  localhost;
    #    ssl_certificate      cert.pem;
    #    ssl_certificate_key  cert.key;
    #    ssl_session_cache    shared:SSL:1m;
    #    ssl_session_timeout  5m;
    #    ssl_ciphers  HIGH:!aNULL:!MD5;
    #    ssl_prefer_server_ciphers  on;
    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}
}


其中反向代理其他配置:

proxy_set_header Host $host; 后端的Web服务器可以通过X-Forwarded-For获取用户真实IP。
proxy_connect_timeout 90; Nginx跟后端服务器连接超时时间。
proxy_read_timeout 90; 连接成功后,后端服务器响应时间。
proxy_buffer_size 4k; 设置代理服务器保存用户头信息的缓冲区大小。
proxy_buffers 6 32k; proxy_buffers缓冲区。
proxy_busy_buffers_size 64k; 高负荷下缓冲大小。
proxy_temp_file_write_size 64k; 设定缓存文件夹大小。

【2】负载均衡


随着业务不断拓展、用户量不断增多,原本一台Nginx代理的服务器已经显得吃力,不论在性能、响应速度等都显得力不从心,所以需要对后台服务器做负载均衡,缓解一台或几台服务器的高并发请求压力。



① upstream

负载均衡需要使用Nginx支持的HTTP Upstream模块,该模块通过一个简单的算法调度来实现客户端ip到服务端负载均衡。


upstream目前支持4种调度算法:


A、默认的轮循


默认的调度算法,在处理客户端的每次请求时,按照时间顺序逐一分配到均衡服务器,如果 后端服务器down掉,能够自动剔除。


B、weight


默认值为1,可以设定服务器的权重(weight)比值,比值越大访问的几率越大,一般用在后台服务器列表访问性能不均匀情况。


C、ip_hash


每个请求按访问IP的hash结果分配,这样每个访客固定访问一个后端服务器,能够有效的解决不同服务器网页Session的问题。


D、fair


根据后端服务器响应的时间长短来分配,响应时间越短被分配几率越大,它属于第三方插件,Nginx本身并不支持,如需使用必须下载Nginx的upstream_fair模块。



② upstream支持的状态参数

在Nginx的Upstream模块中,除了可以通过server指定到特定服务器和端口,还可以设置服务器在负载均衡中的状态。


目前的状态如下:


A、down


代表当前的服务器server不参与负载均衡。


B、backup


预留的备用设备,也就是当其它的服务器故障或忙时才会分配它给客户请求,所以它的压力最小。


C、max_fails


服务器server允许请求失败的次数,默认为1次,当失败次数超过限定的次数,就会返回proxy_next_upstream错误信息。


D、fail_timeout


当经历了max_fails的次数后,暂停服务的时间,一般与max_fails配合使用。


注意:


当服务器的调度算法为ip_hash时,服务器在负载均衡中的状态不能是weight和backup。


③ 修改nginx.conf文件如下:

#user  nobody nobody;
worker_processes  4;
#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;
#pid        logs/nginx.pid;
events {
    use epoll;
    multi_accept on;
    worker_connections  65535;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    server_tokens off;
    server_names_hash_bucket_size 128;   
    client_header_buffer_size 32k;  
    large_client_header_buffers 4 32k;  
    client_max_body_size 1000m;
    sendfile        on;
    tcp_nopush      on;
    tcp_nodelay     on;   
    keepalive_timeout  120;
    send_timeout 10; 
    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';
    #access_log  logs/access.log  main;
    #gzip  on;
  // 配置服务器集群
    upstream tomcat80_server{
      # ip_hash;//这里使用默认算法 
    server 127.0.0.1:8080 weight=1;
    server 127.0.0.1:8081 weight=2;//权重越高表示被分配到的几率越大
    # server 127.0.0.1:8081 backup;//不配置备用服务器
    }
    server {
        listen       80;
        server_name  localhost www.test.com;//多个域名用空格隔开
        #charset koi8-r;
        #access_log  logs/host.access.log  main;
        location / {
           proxy_pass http://tomcat80_server;//将请求转发到集群
       proxy_set_header Host $host;
       proxy_set_header X-Real-IP $remote_addr; 
       proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;   
        }
        #error_page  404              /404.html;
        # redirect server error pages to the static page /50x.html
        #
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
        # proxy the PHP scripts to Apache listening on 127.0.0.1:80
        #
        #location ~ \.php$ {
        #    proxy_pass   http://127.0.0.1;
        #}
        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
        #
        #location ~ \.php$ {
        #    root           html;
        #    fastcgi_pass   127.0.0.1:9000;
        #    fastcgi_index  index.php;
        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;
        #    include        fastcgi_params;
        #}
        # deny access to .htaccess files, if Apache's document root
        # concurs with nginx's one
        #
        #location ~ /\.ht {
        #    deny  all;
        #}
    }
    # another virtual host using mix of IP-, name-, and port-based configuration
    #
    #server {
    #    listen       8000;
    #    listen       somename:8080;
    #    server_name  somename  alias  another.alias;
    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}
    # HTTPS server
    #
    #server {
    #    listen       443 ssl;
    #    server_name  localhost;
    #    ssl_certificate      cert.pem;
    #    ssl_certificate_key  cert.key;
    #    ssl_session_cache    shared:SSL:1m;
    #    ssl_session_timeout  5m;
    #    ssl_ciphers  HIGH:!aNULL:!MD5;
    #    ssl_prefer_server_ciphers  on;
    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}
}

upstream详细设置:

upstream balance {  
server 192.168.88.190:8081 weight=1 max_fails=2 fail_timeout=30s;   
server 192.168.88.39:8081 weight=1 max_fails=2 fail_timeout=30s;  
server 127.0.0.1:8081 down;  
#server 192.168.88.152:8080 backup;  
}  

参数说明如下:


weight : 值越大,负载权重越大,请求次数越多 ;

~

max_fails : 允许请求失败的次数,超过失败次数后,转发到下一个服务器,当有max_fails个请求失败,就表示后端的服务器不可用,默认为1,将其设置为0可以关闭检查 ;

~

fail_timeout : 指定时间内无响应则失败, 在以后的fail_timeout时间内nginx不会再把请求发往已检查出标记为不可用的服务器 ;

~

down : 表示当前server不参与负载 ;

~

backup : 其他非backup server都忙的时候,backup server作为备用服务器,将请求转发到backup服务器 。


上述配置,默认拦截了所有的请求,并转发到Tomcat集群。


实际应用中可以根据需求做详细配置,参考如下两个示例。

① JSP页面请求交给Tomcat处理


具体的,在nginx.conf中新建一个location,用正则表达式将所有JSP的请求匹配到该location中:

其中最核心的就是"proxy_pass http://localhost:8080;"这条配置,它将匹配到的请求都转发给Tomcat去处理。


其他的配置:

proxy_set_header Host $host; 后端的Web服务器可以通过X-Forwarded-For获取用户真实IP。
client_max_body_size 10m; 允许客户端请求的最大单文件字节数。
client_body_buffer_size 128k; 缓冲区代理缓冲用户端请求的最大字节数。
proxy_connect_timeout 90; Nginx跟后端服务器连接超时时间。
proxy_read_timeout 90; 连接成功后,后端服务器响应时间。
proxy_buffer_size 4k; 设置代理服务器保存用户头信息的缓冲区大小。
proxy_buffers 6 32k; proxy_buffers缓冲区。
proxy_busy_buffers_size 64k; 高负荷下缓冲大小。
proxy_temp_file_write_size 64k; 设定缓存文件夹大小。

② 静态文件直接交给nginx处理,并做缓存

对于静态文件的请求,我们也新建一个location,将常见图片、css、js等请求匹配到该location中。

如图所示,配置非常简单,通过root关键字,将匹配到的请求都到tomcat/webapps/ROOT目录下直接查找。而expires 30d则表示使用expires缓存模块,缓存到客户端30天。实际应用中可能会将图片,html,css,js等分开为单独文件夹,思想同上。


上面两个举例只是一种思想,可能不需要。但是在大型项目中,动静分离是一种很好的思想方式!

相关实践学习
SLB负载均衡实践
本场景通过使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,快速解决服务器响应速度慢的问题
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
目录
相关文章
|
24天前
|
负载均衡 算法 搜索推荐
Nginx 常用的负载均衡算法
【10月更文挑战第17天】在实际应用中,我们需要根据具体的情况来选择合适的负载均衡算法。同时,还可以结合其他的优化措施,如服务器健康检查、动态调整权重等,来进一步提高负载均衡的效果和系统的稳定性。
112 59
|
1月前
|
缓存 负载均衡 安全
Nginx常用基本配置总结:从入门到实战的全方位指南
Nginx常用基本配置总结:从入门到实战的全方位指南
249 0
|
1月前
|
负载均衡 应用服务中间件 Linux
nginx学习,看这一篇就够了:下载、安装。使用:正向代理、反向代理、负载均衡。常用命令和配置文件,很全
这篇博客文章详细介绍了Nginx的下载、安装、配置以及使用,包括正向代理、反向代理、负载均衡、动静分离等高级功能,并通过具体实例讲解了如何进行配置。
146 4
nginx学习,看这一篇就够了:下载、安装。使用:正向代理、反向代理、负载均衡。常用命令和配置文件,很全
|
20天前
|
负载均衡 算法 应用服务中间件
Nginx 常用的负载均衡算法
【10月更文挑战第22天】不同的负载均衡算法各有特点和适用场景。在实际应用中,需要根据具体的业务需求、服务器性能和网络环境等因素来选择合适的算法。
23 3
|
24天前
|
负载均衡 监控 应用服务中间件
除了 Nginx,还有以下一些常见的负载均衡工具
【10月更文挑战第17天】这些负载均衡工具各有特点和优势,在不同的应用场景中发挥着重要作用。选择合适的负载均衡工具需要综合考虑性能、功能、稳定性、成本等因素。
|
1月前
|
负载均衡 应用服务中间件 nginx
Nginx的6大负载均衡策略及权重轮询手写配置
【10月更文挑战第9天】 Nginx是一款高性能的HTTP服务器和反向代理服务器,它在处理大量并发请求时表现出色。Nginx的负载均衡功能可以将请求分发到多个服务器,提高网站的吞吐量和可靠性。以下是Nginx支持的6大负载均衡策略:
139 7
|
1月前
|
负载均衡 算法 Java
腾讯面试:说说6大Nginx负载均衡?手写一下权重轮询策略?
尼恩,一位资深架构师,分享了关于负载均衡及其策略的深入解析,特别是基于权重的负载均衡策略。文章不仅介绍了Nginx的五大负载均衡策略,如轮询、加权轮询、IP哈希、最少连接数等,还提供了手写加权轮询算法的Java实现示例。通过这些内容,尼恩帮助读者系统化理解负载均衡技术,提升面试竞争力,实现技术上的“肌肉展示”。此外,他还提供了丰富的技术资料和面试指导,助力求职者在大厂面试中脱颖而出。
腾讯面试:说说6大Nginx负载均衡?手写一下权重轮询策略?
|
1月前
|
缓存 负载均衡 算法
nginx学习:配置文件详解,负载均衡三种算法学习,上接nginx实操篇
Nginx 是一款高性能的 HTTP 和反向代理服务器,也是一个通用的 TCP/UDP 代理服务器,以及一个邮件代理服务器和通用的 HTTP 缓存服务器。
66 0
nginx学习:配置文件详解,负载均衡三种算法学习,上接nginx实操篇
|
1月前
|
开发框架 负载均衡 前端开发
Nginx负载均衡
Nginx负载均衡
|
1月前
|
负载均衡 Java 应用服务中间件
Nginx负载均衡配置
Nginx负载均衡配置