局部NGINX后业务实例过载怎么办?F5有什么负载均衡解决方案?

本文涉及的产品
网络型负载均衡 NLB,每月750个小时 15LCU
传统型负载均衡 CLB,每月750个小时 15LCU
应用型负载均衡 ALB,每月750个小时 15LCU
简介:

  
  LTM给NGINX做LB是一种较为典型的双层负载均衡,也就是典型的L4.L7分离的双层负载均衡解决方案。我们用了这个方案后,出现了 NGINX 后的服务器过载,怎么办?应该如喝解决?

  根绝我分析,如果LTM的pool member中的NGINX是位于不同的可用区或者不同的DC,此时LTM如仅做应用层负载均衡或仅monitor nginx本身,那么LTM是无法感知到 NGINX 背后(upstream)到底有多少可用的业务服务器。如果某个 NGINX 的upstream中可用服务器已经很少,此时LTM会依旧分配同等数量的连接请求给该NGINX,会导致该 NGINX 后的服务器过载,从而降低服务质量。

  F5提供的负载均衡解决方案的思路如下:

  如果能够让LTM感知到NGINX的upstream中当前有多少可用的服务器,并设置一个阀值,如低于该可用数量则LTM不再向该NGINX实例分配连接。这样就可以较好的避免上述问题。运维人员可根据LTM报出的日志或 Telemetry Streaming输出,及时触发相关自动化流程对该NGINX下的服务实例进行快速扩容,当可用服务实例数量恢复大于阀值后,LTM则又开始向该NGINX分配新的连接。

  NGINX Plus本身提供了一个API endpoint,通过获取该API并做相应处理即可获得可用的服务器实例数量,在LTM上则可以利用external monitor实施对该API的自动化监控与处理。
 001

  F5给出的负载均衡解决方案的具体操作

  1.获取的API资源路径是:安装可在中国使用的VPN。注:api后的版本6可能会因nginx plus的版本不同而不同.

  2.返回的内容示例如下,主要关心state: up, 只要获取到总的state: up数量即可
  {
   "peers": [
  {
   "id": 0,
   "server": "10.0.0.1:8080",
   "name": "10.0.0.1:8080",
   "backup": false,
   "weight": 1,
   "state": "up",
   "active": 0,
   "requests": 3468,
   "header_time": 778,
   "response_time": 778,
   "responses": {
   "1xx": 0,
   "2xx": 3435,
   "3xx": 6,
   "4xx": 20,
   "5xx": 4,
   "total": 3465
   },
   "sent": 1511086,
   "received": 99693373,
   "fails": 0,
   "unavail": 0,
   "health_checks": {
   "checks": 1754,
   "fails": 0,
   "unhealthy": 0,
   "last_passed": true
   },
   "downtime": 0,
   "selected": "2020-01-03T07:52:57Z"
   },
   {
   "id": 1,
   "server": "10.0.0.1:8081",
   "name": "10.0.0.1:8081",
   "backup": true,
   "weight": 1,
   "state": "unhealthy",
   "active": 0,
   "requests": 0,
   "responses": {
   "1xx": 0,
   "2xx": 0,
   "3xx": 0,
   "4xx": 0,
   "5xx": 0,
   "total": 0
   },
   "sent": 0,
   "received": 0,
   "fails": 0,
   "unavail": 0,
   "health_checks": {
   "checks": 1759,
   "fails": 1759,
   "unhealthy": 1,
   "last_passed": false
  },
   "downtime": 17588406,
   "downstart": "2020-01-03T03:00:00.427Z"
  }
   ]
  }
  3.可以编写如下python脚本:
  #!/usr/bin/python
  # -- coding: UTF-8 --
  import sys
  import urllib2
  import json
  def get_nginxapi(url):
   ct_headers = {'Content-type':'application/json'}
   request = urllib2.Request(url,headers=ct_headers)
   response = urllib2.urlopen(request)
   html = response.read()
   return html
  api = sys.argv[3]
  try:
   data = get_nginxapi(api)
   data = json.loads(data)
  except:
   data = ''
  m = 0
  lowwater = int(sys.argv[4])
  try:
   for peer in data['peers']:
   state = peer['state']
   if state == 'up':
   m = m + 1
  except:
   m = 0
  #print data['peers'][]['state']
  #print m
  if m >= lowwater:
   print 'UP'

  4.将该脚本上传至LTM,上传路径:system–file management–external monitor–import, 效果如下
 002

  5.配置external-monitor, 注意arguments部分填写:
  注意空格前填写的是相关API的URL,空格后填写阀值
 003

  6.随后将该monitor 关联到某个nginx pool member上
 004

  可以看到,该member 此时标记为up
 005

  7.如果将阀值改为3,由于当前upstream中仅有2台可用,因此LTM将标记该NGINX实例为down
 006
007

  其它:

  输入错误的url或者错误的endpoints 等,都直接置为down,这样用户可以比较容易发现问题?Upstream中被设置为backup的状态的成员认为是可用的?此方法还可以避免实际服务器被LTM和nginx两次monitor

  如果nginx有很多个upstream的话,LTM怎么设定?

  从前端ltm到nginx来说,如果此nginx后端的任何upstream容量不足的话,都不应该给这个nginx再分链接,所以多个upstream的话,可以ltm上设置多个monitor,并设置 all need up。

  如果nginx的上的配置有问题,实际业务访问不了,上述方案似乎无法发现此场景问题?

  是的,对于nginx本身可用性及配置问题,可考虑在LTM上加一个穿透性的7层健康检查,但是如果NGINX本身有很多server/location段落配置,又想发现所有这些段落可能存在的问题,那就意味着要对每个服务都进行7层健康检查,这个在服务特别多场景下,需要思考,或许过度追求探测的完美性会对业务服务器带来更多的探测压力。理论上,LTM上一个穿透性检查+所有upstream的API检查,能够满足大部分场景。

  在大规模NGINX部署场景下,如何降低NGINX健康检查对后端服务的压力?

  可考虑nginx做动态服务发现app,app的可用性由注册中心类工具来解决,从分布式的健康检查变成注册中心集中式的健康检查; 或者借助NGINX plus的upstream API 通过集中健康检查系统来动态性更新upstream,这样可避免频繁reload配置, 从而减低健康检查带来的压力。

  以上内容就是局部NGINX后业务实例过载后F5负载均衡解决方案的实际操作方法,希望对您有所帮助。如果您看完还不会操作,建议联系F5客服,F5将会快速的,针对性的帮您解决问题。

  【文章来源】F5软件方向解决方案架构师林静的《F5社区好文推荐:多可用区双层负载下,如何借助F5避免局部NGINX后业务实例过载》。

相关实践学习
SLB负载均衡实践
本场景通过使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,快速解决服务器响应速度慢的问题
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
相关文章
|
1月前
|
弹性计算 监控 负载均衡
|
1月前
|
负载均衡 网络协议 网络安全
SLB-Backend多实例部署配置健康检查
【10月更文挑战第22天】
69 3
|
1月前
|
运维 负载均衡 算法
|
1月前
|
负载均衡 网络协议 数据库
选择适合自己的数据库多实例负载均衡技术
【10月更文挑战第23天】选择适合自己的数据库多实例负载均衡技术需要全面考虑多种因素。通过深入的分析和评估,结合自身的实际情况,能够做出明智的决策,为数据库系统的高效运行提供有力保障。
115 61
|
11天前
|
弹性计算 负载均衡 网络协议
ECS中实现nginx4层7层负载均衡和ALB/NLB原SLB负载均衡
通过本文的介绍,希望您能深入理解并掌握如何在ECS中实现Nginx四层和七层负载均衡,以及如何使用ALB和NLB进行高效的负载均衡配置,以提高系统的性能和可靠性。
54 9
|
1月前
|
缓存 负载均衡 算法
如何配置Nginx反向代理以实现负载均衡?
如何配置Nginx反向代理以实现负载均衡?
|
22天前
|
负载均衡 算法 应用服务中间件
Nginx的负载均衡
Nginx 是一款高性能的Web服务器与反向代理服务器,支持负载均衡功能,能有效提升系统性能与可靠性。其负载均衡策略包括基于轮询和权重的分配方法,以及IP哈希、最小连接数等算法,可根据实际需求灵活选择。
79 5
|
24天前
|
负载均衡 前端开发 应用服务中间件
负载均衡指南:Nginx与HAProxy的配置与优化
负载均衡指南:Nginx与HAProxy的配置与优化
44 3
|
1月前
|
弹性计算 缓存 监控
SLB-Backend多实例部署
【10月更文挑战第21天】
39 5
|
1月前
|
负载均衡 网络协议 数据安全/隐私保护
创建和删除负载均衡实例
【10月更文挑战第18天】
18 1