开发者社区> 技术小阿哥> 正文
阿里云
为了无法计算的价值
打开APP
阿里云APP内打开

Nginx配置负载均衡及反向代理

简介:
+关注继续查看

简单介绍:

1、Nginx优点

Nginx 负均衡实现比较简单,可配置性很强,可以按URL做负载均衡,默认对后端有健康检查的能力。后端机器少的情况下(少于10台)负载均衡能力表现好。其优点主要有:

1)功能强大,支持高并发连接,内存消耗少:官方测试能够支撑5万并发连接,在实际生产环境中跑到2~3 万并发连接数,且在3万并发连接下,开启的10个Nginx 进程才消耗150M内存(15M*10=150M)。

2)成本低廉:Nginx 为开源软件,免费使用。

3)Nginx 工作在网络的7 层,所以它可以针对Http应用本身来做分流策略,比如针对域名、目录结构等进行分流,可以实现多种分配策略,如:可以实现轮训、IP hash 等分配策略。

2、Nginx负载均衡的实现(Nginx的upstream模块所支持负载均衡的算法

  Nginx 的负载均衡是一个基于内容和应用的七层交换负载均衡,是以反向代理服务器方式实现负载均衡。因此使用Nginx 实现服务器负载均衡的关键在于ngx_http_upstream_hash_module 模块的使用和设置Nginx 反向代理配置。

1)轮询(默认):每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器宕机,能自动剔除。

2)权重轮询均衡(weight):可以指定轮询几率,权重(weight)和访问比率成正比,用于后端服务器性能不均的情况。

3)ip_hash:每个请求按访问ip 的hash 结果分配,解决session问题,这样每个访客固定访问一个后端服务器,在有些应用情况下,需要将来自同一客户端的所有请求都分配给同一台服务器去负担,例如服务器将客户端注 册、购物等服务请求信息保存的本地数据库的情况下,把客户端的子请求分配给同一台服务器来处理就显的至关重要了。

4)fair(第三方):按后端服务器的响应时间来分配请求,响应时间短的优先分配。

5)url_hash(第三方):按访问url 的hash 结果来分配请求,使每个url 定向到同一个后端服务器,后端服务器为缓存时比较有效。

在nginx.conf 配置文件中,用upstream 指令定义一组(以4 台服务器为例)负载均衡后端服务器池:

1
2
3
4
5
upstream test.com {    #test.com表示集群组名,随意命名;支持多组负载均衡
        ip_hash; #设置分配方式
 server 192.168.0.203:80 weight=2 max_fails=3 fail_timeout=20s;
 server 192.168.0.204:80 weight=2 max_fails=3 fail_timeout=20s;
 }

设备状态说明:

max_fails=3:允许请求失败的次数,默认是1,当超过最大次数时,则返回proxy_next_upstream模块定义的错误

fail_timeout=20s:当max_fails访问失败3次时,这台服务器暂停时间20s

weight:默认是1,权重值越大,分配请求负载越大

down:不参与集群

backup:除backup这台外其他机器down或忙时,请求backup机器

3、设置Nginx的反向代理配置

   反向代理方式与普通的代理方式有所不同,标准代理方式是客户使用代理访问多个外部Web 服务器,反向代理方式是多个客户使用它访问内部Web服务器,使用反向代理服务器可以将请求转发给内部的Web 服务器,从而提升静态网页的访问速度。因此可以使用这种技术,让代理服务器将请求均匀转发给多台内部Web 服务器之一上,从而达到负载均衡的目的。

   使用反向代理的好处是,可以将负载均衡和代理服务器的高速缓存技术结合在一起,提供有益的性能,具备额外的安全性,外部客户不能直接访问真实的服务器。 并且实现起来可以实现较好的负载均衡策略,将负载可以非常均衡的分给内部服务器,不会出现负载集中到某个服务器的偶然现象。

nginx.conf 配置文件中,进行反向代理配置

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
server {
 listen 80;
 server_name www.test.com;
 location / {
 root html;
 index index.html index.htm;
 proxy_pass http://www.test.com;
 proxy_headers_hash_max_size 51200;
 proxy_headers_hash_bucket_size 6400;
 proxy_set_header Host $host;
 proxy_set_header X-Real-IP $remote_addr;
 proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
 include proxy.conf;
 }
 }

拓扑图:

185207378.jpg

环境描述:

系统均为:CentOS6.3_x64

Nginx:192.168.0.202 #负载均衡

WEB1:192.168.0.203 #后端网站

WEB2:192.168.0.204

测试机做host记录:192.168.0.202 www.test.com

一、安装nginx

1、安装依赖包和创建用户和组

1
2
3
# yum install -y gcc gcc-c++ make kernel-headers glibc-headers zlib-devel openssl openssl-devel pcre-devel
# groupadd nginx
# useradd -g nginx -s /sbin/nologin nginx

2、安装nginx

1
2
3
4
# tar zxvf nginx-1.4.2.tar.gz
# cd nginx-1.4.2
# ./configure --perfix=/usr/local/nginx --user=nginx --group=nginx --with-http_ssl_module --with-http_gzip_static_module --with-http_stub_status_module
# make && make install

二、配置主配置文件

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
# vi /usr/local/nginx/conf/nginx.conf
user nginx nginx;
worker_processes 8;
error_log logs/error.log;
pid logs/nginx.pid;
events {
 worker_connections 1024;
}
http {
 include mime.types;
 default_type application/octet-stream;
 log_format main '$remote_addr - $remote_user [$time_local] "$request" '
 '$status $body_bytes_sent "$http_referer" '
 '"$http_user_agent" "$http_x_forwarded_for"';
 access_log logs/access.log main; #上面是访问日志格式和记录位置
 sendfile on;
 tcp_nopush on;
 keepalive_timeout 65;
 gzip on;
upstream www.test.com {
 server 192.168.0.203:80 weight=2;  #我们使用weight算法
 server 192.168.0.204:80 weight=3;   考虑到服务器性能不均
 }
 server {
 listen 80;
 server_name www.test.com;
 location / {
 root html;
 index index.html index.htm; #请求转向mysvr 定义的服务器列表
 proxy_pass http://www.test.com;
 proxy_headers_hash_max_size 51200;
 #设置头部哈希表的最大值,不能小于你后端服务器设置的头部总数。
 proxy_headers_hash_bucket_size 6400; #设置头部哈希表大小
 proxy_set_header Host $host;
 proxy_set_header X-Real-IP $remote_addr;
 proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
 include proxy.conf;
 }
 }
1
2
3
4
5
6
7
8
9
10
11
12
13
# vi /usr/local/nginx/conf/proxy.conf
proxy_redirect off;
proxy_set_header Host $host; #后端的Web服务器可以通过X-Forwarded-For获取用户真实IP
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
client_max_body_size 10m; #允许客户端请求的最大单文件字节数
client_body_buffer_size 128k; #缓冲区代理缓冲用户端请求的最大字节数,
proxy_connect_timeout 90; #nginx跟后端服务器连接超时时间(代理连接超时)
proxy_read_timeout 90; #连接成功后,后端服务器响应时间(代理接收超时)
proxy_buffer_size 4k; #设置代理服务器(nginx)保存用户头信息的缓冲区大小
proxy_buffers 6 32k; #proxy_buffers缓冲区,网页平均在32k以下的话,这样设置
proxy_busy_buffers_size 64k; #高负荷下缓冲大小(proxy_buffers*2)
proxy_temp_file_write_size 64k; #设定缓存文件夹大小,大于这个值,将从upstream服务器传

三、维护命令

1
2
3
4
5
6
7
# /usr/local/nginx/sbin/nginx #启动nginx
# /sbin/nginx -s stop #快速终止web服务
# /sbin/nginx -s quit #有安排的结束web服务
# /sbin/nginx -s reload #重新加载相关配置
# /logs/access.log #访问日志
# /logs/error.log #错误日志
# echo '/usr/local/nginx/sbin/nginx' >> /etc/rc.local #设置开机启动

配置完毕,后端web不需要配置,启动nginx后访问www.test.com可以看到轮训调度后端web!



本文转自 李振良OK 51CTO博客,原文链接:http://blog.51cto.com/lizhenliang/1300684,如需转载请自行联系原作者

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
Nginx 配置指令的执行顺序(学习笔记二十)
大多数 Nginx 新手都会频繁遇到这样一个困惑,那就是当同一个location配置块使用了多个 Nginx 模块的配置指令时,这些指令的执行顺序很可能会跟它们的书写顺序大相径庭。
1286 0
Nginx 配置指令的执行顺序(十)
运行在 post-rewrite 阶段之后的是所谓的 preaccess 阶段。该阶段在 access 阶段之前执行,故名preaccess.       标准模块 ngx_limit_req 和 ngx_limit_zone 就运行在此阶段,前者可以控制请求的访问频度,而后者可以限制访问的并发度。
795 0
Nginx 配置指令的执行顺序(二)
我们前面已经知道,当 set 指令用在 location 配置块中时,都是在当前请求的 rewrite 阶段运行的。事实上,在此上下文中,ngx_rewrite 模块中的几乎全部指令,都运行在 rewrite 阶段,包括 Nginx 变量漫谈(二) 中介绍过的 rewrite 指令。
1121 0
Nginx 配置指令的执行顺序(七)
来看一个 ngx_static 模块服务磁盘文件的例子。我们使用下面这个配置片段:     location / {        root /var/www/;    } 同时在本机的 /var/www/ 目录下创建两个文件,一个文件叫做 index.html,内容是一行文本 this is my home;另一个文件叫做 hello.html,内容是一行文本 hello world. 同时注意这两个文件的权限设置,确保它们都对运行 Nginx worker 进程的系统帐户可读。
1003 0
Nginx 配置指令的执行顺序(六)
前面我们在 (五) 中提到,在一个 location 中使用 content 阶段指令时,通常情况下就是对应的 Nginx 模块注册该 location 中的“内容处理程序”。那么当一个 location 中未使用任何 content 阶段的指令,即没有模块注册“内容处理程序”时,content 阶段会发生什么事情呢?谁又来担负起生成内容和输出响应的重担呢?答案就是那些把当前请求的 URI 映射到文件系统的静态资源服务模块。
1060 0
Nginx 配置指令的执行顺序(五)
Nginx 的 content 阶段是所有请求处理阶段中最为重要的一个,因为运行在这个阶段的配置指令一般都肩负着生成“内容”(content)并输出 HTTP 响应的使命。正因为其重要性,这个阶段的配置指令也异常丰富,例如前面我们一直在示例中广泛使用的 echo 指令,在 Nginx 变量漫谈(二) 中接触到的 echo_exec 指令,Nginx 变量漫谈(三) 中接触到的 proxy_pass 指令,Nginx 变量漫谈(五) 中介绍过的 echo_location 指令,以及 Nginx 变量漫谈(七) 中介绍过的 content_by_lua 指令,都运行在这个阶段。
1206 0
Nginx 配置指令的执行顺序(八)
前面我们详细讨论了 rewrite、access 和 content 这三个最为常见的 Nginx 请求处理阶段,在此过程中,也顺便介绍了运行在这三个阶段的众多 Nginx 模块及其配置指令。同时可以看到,请求处理阶段的划分直接影响到了配置指令的执行顺序,熟悉这些阶段对于正确配置不同的 Nginx 模块并实现它们彼此之间的协同工作是非常必要的。
874 0
Nginx 配置指令的执行顺序(十一)
紧跟在 post-access 阶段之后的是 try-files 阶段。这个阶段专门用于实现标准配置指令 try_files 的功能,并不支持 Nginx 模块注册处理程序。由于 try_files 指令在许多 FastCGI 应用的配置中都有用到,所以我们不妨在这里简单介绍一下。
954 0
Nginx 配置指令的执行顺序(三)
如前文所述,除非像 ngx_set_misc 模块那样使用特殊技术,其他模块的配置指令即使是在 rewrite 阶段运行,也不能和 ngx_rewrite 模块的指令混合使用。不妨来看几个这样的例子。       第三方模块 ngx_headers_more 提供了一系列配置指令,用于操纵当前请求的请求头和响应头。
913 0
Nginx 配置指令的执行顺序(一)
大多数 Nginx 新手都会频繁遇到这样一个困惑,那就是当同一个 location 配置块使用了多个 Nginx 模块的配置指令时,这些指令的执行顺序很可能会跟它们的书写顺序大相径庭。于是许多人选择了“试错法”,然后他们的配置文件就时常被改得一片狼藉。
1060 0
13688
文章
0
问答
文章排行榜
最热
最新
相关电子书
更多
低代码开发师(初级)实战教程
立即下载
阿里巴巴DevOps 最佳实践手册
立即下载
冬季实战营第三期:MySQL数据库进阶实战
立即下载