Nginx搭建负载均衡详细操作

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
网络型负载均衡 NLB,每月750个小时 15LCU
应用型负载均衡 ALB,每月750个小时 15LCU
简介: Nginx搭建负载均衡详细操作

什么是负载均衡?


互联网早期,业务流量比较小并且业务逻辑比较简单,单台服务器便可以满足基本的需求;但随着互联网的发展,业务流量越来越大并且业务逻辑也越来越复杂,单台机器的性能问题以及单点问题凸显了出来,因此需要多台机器来进行性能的水平扩展以及避免单点故障。但是要如何将不同的用户的流量分发到不同的服务器上面呢?


那么通过使用nginx搭建的负载均衡器即可解决该问题


客户端的流量首先会到达负载均衡服务器,由负载均衡服务器通过一定的调度算法将流量分发到不同的应用服务器上面,同时负载均衡服务器也会对应用服务器做周期性的健康检查,当发现故障节点时便动态的将节点从应用服务器集群中剔除,以此来保证应用的高可用。

搭建步骤以及准备条件:

  1. 搭建三台Linux服务器
  2. 一台安装Nginx,另外两台各安装Tomcat
  3. 对Nginx的/etc/nginx/conf.d/default.conf进行配置
  4. 测试负载均衡


这里我用的是使用Vmware创建三台Linux服务器,其中一台安装Nginx,为其使用dhclient分配ip为:192.168.248.128

另外两台安装jdk+Tomcat.,分别为其分配IP为:192.168.129和129.168.248.130.


结果如下图所示:

详细操作:

1.克隆三台Linux服务器

1.1 以上图为例 dhclient 分配 ip地址

安装tomcat的两台服务器ip分别为192.168.30.128、192.168.30.130

安装的nginx的服务器ip为192.168.30.131


2.安装JDK和Tomcat

在192.168.30.128、192.168.30.130上先安装JDK,在安装tomcat

安装tomcat需要依赖JDK

安装步骤参考之前的文章


3.安装Nginx

在192.168.30.131安装Nginx

4.配置负载均衡

在192.168.30.131安装Nginx的服务器上, 打开/etc/nginx/conf.d/default.conf文件

#新增
upstream aa{
    server 192.168.30.128:8080;
    server 192.168.30.130:8080;
}
server {
    listen       80;
    server_name  localhost;
    #charset koi8-r;
    #access_log  /var/log/nginx/host.access.log  main;
    location / {
        root   /usr/share/nginx/html;
        index  index.html index.htm;
        #新增一行
        proxy_pass  http://aa;
    }
}

5.关闭Nginx上的安全组

使用 vi /etc/selinux/config

编辑config文件,修改SELNUX=disabled

如图所示:

注意:修改过安全组要把系统重启reboot下生效!

重启之后如果不能访问就要禁用掉防火墙:systemctl stop firewalld

并且开启Nginx:stystemctl start nginx


6.测试

通过 http://192.168.30.131:80 访问Nginx,即可看到实际访问了tomcat


负载均衡的策略

  1. 轮询 (默认)
    特点:一个一个挨着访问,tomcat服务器会被依次访问
  2. 权重
    weight=数字越大权重越大,被访问的几率越高
    下边的配置上边的机器访问2次,下边的访问1次

3.ip黏着

根据用户的ip,绑定到一台tomcat服务器

根据客户端用户的ip地址计算出一个可以被访问的tomcat服务器

如果客户端用户的ip地址不变,那么访问的tomcat就固定了

原理:把用户的ip进行hash处理(取用户ip的hash值),对tomcat总数量取模,然后根据得到的值,对应找到要访问的Tomcat

反向代理和正向代理的区别

代理如果在服务器端就是反向代理,如果放在客户端就是正向代理

反向代理 和 负载均衡 的关系?

什么是负载均衡? 搭建多个tomcat服务器,在用户访问量大的时候,可以访问不同的tomcat,减少某个tomcat的访问压力

在nginx中如果想实现负载均衡,需要借助反向代理机制


相关实践学习
SLB负载均衡实践
本场景通过使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,快速解决服务器响应速度慢的问题
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
目录
相关文章
|
22天前
|
负载均衡 网络协议 Unix
Nginx负载均衡与故障转移实践
Nginx通过ngx_http_upstream_module模块实现负载均衡与故障转移,适用于多服务器环境。利用`upstream`与`server`指令定义后端服务器组,通过`proxy_pass`将请求代理至这些服务器,实现请求分发。Nginx还提供了多种负载均衡策略,如轮询、权重分配、IP哈希等,并支持自定义故障转移逻辑,确保系统稳定性和高可用性。示例配置展示了如何定义负载均衡设备及状态,并应用到具体server配置中。
|
2月前
|
负载均衡 应用服务中间件 Linux
"揭晓nginx的神秘力量:如何实现反向代理与负载均衡,拯救服务器于水火?"
【8月更文挑战第20天】在Linux环境下,nginx作为高性能HTTP服务器与反向代理工具,在网站优化及服务器负载均衡中扮演重要角色。本文通过电商平台案例,解析nginx如何解决服务器压力大、访问慢的问题。首先介绍反向代理原理,即客户端请求经由代理服务器转发至内部服务器,隐藏真实服务器地址;并给出配置示例。接着讲解负载均衡原理,通过将请求分发到多个服务器来分散负载,同样附有配置实例。实践表明,采用nginx后,不仅服务器压力得到缓解,还提升了访问速度与系统稳定性。
56 3
|
2月前
|
负载均衡 算法 应用服务中间件
在Linux中,nginx反向代理和负载均衡实现原理是什么?
在Linux中,nginx反向代理和负载均衡实现原理是什么?
|
2月前
|
负载均衡 应用服务中间件 nginx
Nginx怎么去做负载均衡?
Nginx的负载均衡器配置就完成了,而且由于Nginx的配置文件结构清晰而且简洁,调整和维护也相对方便。通过上述步骤,你可以将Nginx设置为一款强大的负载均衡器,提升服务器集群的处理能力及高可用性。
45 4
|
2月前
|
域名解析 负载均衡 网络协议
双重神器合璧,流量洪流中的稳如磐石:揭秘Bind+Nginx负载均衡的超级力量!
【8月更文挑战第9天】在现代网站架构中,负载均衡至关重要,它通过分散客户端请求至多台服务器,确保了系统的高可用性和稳定性。本文介绍如何结合Bind与Nginx实现高效负载均衡。Bind作为DNS服务器,可为单一域名解析出多个IP地址;Nginx作为高性能HTTP服务器,则在这些IP对应的服务器间智能分配流量。通过配置Bind的A记录与Nginx的`upstream`和`proxy_pass`指令,我们能够构建一个既稳定又易扩展的负载均衡系统,显著提升用户体验与系统可靠性。
49 11
|
2月前
|
负载均衡 监控 算法
Nginx:负载均衡小专题(二)
Nginx:负载均衡小专题(二)
42 2
|
2月前
|
负载均衡 监控 网络协议
Nginx:负载均衡小专题(三)
Nginx:负载均衡小专题(三)
85 1
|
2月前
|
负载均衡 监控 算法
Nginx:负载均衡小专题(一)
Nginx:负载均衡小专题(一)
68 1
|
2月前
|
负载均衡 应用服务中间件 Linux
在Linux中,Nginx如何实现负载均衡分发策略?
在Linux中,Nginx如何实现负载均衡分发策略?
|
2月前
|
负载均衡 网络协议 应用服务中间件
nginx-http反向代理与负载均衡
nginx-http反向代理与负载均衡
下一篇
无影云桌面