高可用系列文章之三 - NGINX 高可用实施方案

简介: 高可用系列文章之三 - NGINX 高可用实施方案

四 NGINX 高可用实施方案

高可用的实施, 主要步骤概述如下:

  1. NGINX 的安装及基础配置
  2. 负载均衡层高可用: NGINX + Keepalived 配置
  3. 应用服务层高可用: NGINX -> 应用服务层 转发配置

系统软 硬件详细配置清单

根据制造业高可用架构设计, 以及业务需求, 部署模型建议配置如下:

  • 负载均衡服务器(即 NGINX + Keepalived): 2 台, 操作系统 Linux. 配置建议如下:
名称 规格 备注
CPU 2 core
内存 4 GB
硬盘 50 GB
操作系统 SUSE12 64 位及补丁
网卡 至少 1 块网卡, 支持 VRRP 技术
  • 软件运行配置环境:
软件 规格
NGINX 1.16.1
Keepalived 2.0.10

4.1 NGINX 安装及配置

4.1.1 分区及目录

建议至少分为以下 3 个区:

分区及目录 大小 备注
主分区(/) 默认 nginx 程序及配置文件位于该分区(/etc/nginx)
日志分区(/var/log/nginx) 10G-20G
程序目录分区(/usr/share/nginx/html) 10G 可选, nginx 用作 web server 时需要用到此目录.

4.1.2 程序及依赖版本

程序组件 安装包名 版本 md5
nginx nginx-1.16.1-1.sles12.ngx.x86_64.rpm 1.16.1 396A359F26DD0100CD59545BAFFAFE85

4.1.3 NGINX 程序规范

  • nginx 程序目录: /etc/nginx
  • 执行程序路径: /usr/sbin/nginx
  • 主配置文件路径:/etc/nginx/conf/nginx.conf
  • 各个应用系统转发配置文件目录:/etc/nginx/conf.d/
  • 日志目录:/var/log/nginx
  • 各个应用系统静态文件目录:/usr/share/nginx/html

4.1.4 系统级别配置优化

注意:

需要 root 用户执行.

  1. 安装组件: logrotate
  2. 修改连接数:
1
2
3
4
vi /etc/security/limits.conf
# vi 编辑
*               soft    nofile          65535
*               hard    nofile          65535
BASH
  1. 修改系统内核配置:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
vi /etc/sysctl.conf
# vi 编辑
# NGINX Tuning Performance
fs.file-max = 65535
vm.zone_reclaim_mode = 0
net.core.somaxconn = 2048
net.ipv4.tcp_tw_recycle = 0
net.ipv4.tcp_timestamps = 1
net.ipv4.tcp_slow_start_after_idle = 0
net.ipv4.tcp_mtu_probing = 1
# 生效
sysctl -p
BASH

4.1.5 配置 NGINX repo

注意:

本节命令可以根据具体情况, 在公司内部 repo 仓库机器上进行操作.

其他机器只需要配置内部 repo 地址即可.

键入以下 zypper 命令以添加 SLES 的 zypper 存储库

1
$ sudo zypper addrepo -G -t yum -c 'http://nginx.org/packages/sles/12' nginx
BASH

Add Pre-Built SLES Packages Repo for Stable Nginx version

接下来,您必须验证数字签名以保持下载包的完整性和来源。使用 wget 命令获取 nginx 签名密钥:

$ wget http://nginx.org/keys/nginx_signing.key
BASH

示例输出:

--2020-01-09 23:48:48--  http://nginx.org/keys/nginx_signing.key
Resolving nginx.org (nginx.org)... 206.251.255.63, 95.211.80.227, 2001:1af8:4060:a004:21::e3, ...
Connecting to nginx.org (nginx.org)|206.251.255.63|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 1561 (1.5K) [text/plain]
Saving to: ‘nginx_signing.key’
 
100%[==================================================>] 1,561       --.-K/s   in 0s      
 
2020-01-09 23:48:49 (117 MB/s) - ‘nginx_signing.key’ saved [1561/1561]
BASH

使用 rpm 命令将密钥导入 rpm:

$ sudo rpm --import nginx_signing.key
BASH

4.1.6 SUSE 上安装 NGINX

键入以下 zypper 命令:

$ sudo zypper install nginx=1.16.1
BASH

How To Install Nginx on SUSE Linux using zypper command

4.1.7 可选: 配置防火墙

注意:

如果机房流量入口有其他专用防火墙, 则可以关闭 nginx 服务器上的防火墙, 且不需要执行此步骤.

首先创建 Nginx 特定服务的配置文件,使用 vi 命令等文本编辑器打开端口 80:

$ sudo vi /etc/sysconfig/SuSEfirewall2.d/services/nginx
BASH

添加以下配置:

## Name: Nginx web server
## Description: Open ports for Nginx Server
 
# space separated list of allowed TCP ports
TCP="http"
BASH

(如果不需要 HTTPS 支持,则只需要允许 TCP 端口号 80 上的通信。)保存并退出 VI/VIM 文本编辑器。现在,只需运行以下命令打开端口 80:

$ sudo yast firewall
BASH

必须使用 TAB 和箭头键在 YaST 中跳转。在 YaST 中,跳转到允许的服务,然后按 Enter 键:

SLES Firewall Config for Nginx server

使用 TAB 跳转到“Allowed Services”,然后按向下箭头键选择 Nginx web server,然后按回车键。必须按 Alt-A 来将 Nginx 服务器添加到防火墙:

Adjust the SUSE Linux Firewall for Nginx

Alt-NAlt-F 保存并完成 SLES 上的防火墙设置。返回 shell 提示符后,列出 sle 上的所有 iptables 规则:

$ sudo iptables -S
BASH

示例输出:

-A input_ext -p tcp -m limit --limit 3/min -m tcp --dport 80 --tcp-flags FIN,SYN,RST,ACK SYN -j LOG --log-prefix "SFW2-INext-ACC-TCP " --log-tcp-options --log-ip-options
-A input_ext -p tcp -m tcp --dport 80 -j ACCEPT
BASH

使用 sudo 命令和 grep 命令的组合来确定端口 80 是否打开:

sudo sh -c 'iptables -L -n -v | grep :80'
BASH

4.1.8 启动 NGINX Server

键入以下 systemctl 命令以在系统启动时启用 Nginx: (开机自启)

$ sudo systemctl enable nginx
BASH

启动 Nginx web 服务器:

$ sudo systemctl start nginx
BASH

验证:

$ systemctl status nginx
BASH

Turn On Check Nginx Web Server Service

要判断 80 端口是否监听, 运行以下 netstat 命令或 ss 命令:

$ sudo netstat -tulpn | grep :80
$ sudo ss -tulpn | grep :80
BASH

Is port 80 open on SLES

4.1.9 NGINX 基础操作

停止:

$ sudo systemctl stop nginx
BASH

启动:

$ sudo systemctl start nginx
BASH

重新启动服务:

$ sudo systemctl restart nginx
BASH

更改配置后重新加载 Ngnix:

$ sudo systemctl reload nginx
BASH

建议:

配置更新后使用 reload 来重新加载 nginx.

访问 nginx 页面:

假设 NGINX IP 为: 192.168.0.1. 使用浏览器或 curl 访问:

http://serve_IP
http://your-domain
http://192.168.0.1
DTS

img

$ curl -I 192.168.122.43
BASH

示例输出:

HTTP/1.1 200 OK
Server: nginx/1.16.1
Date: Sat, 03 Feb 2020 19:18:53 GMT
Content-Type: text/html
Content-Length: 612
Last-Modified: Tue, 17 Oct 2019 13:30:50 GMT
Connection: keep-alive
ETag: "59e6060a-264"
Accept-Ranges: bytes
HTTP

4.1.10 查找有关 SLES 上 Nginx 配置文件的信息

现在 Nginx 已经启动并运行了。接下来可以定制配置。

SLES 的服务器配置文件:

  • /etc/nginx/: nginx 默认配置目录
  • /etc/nginx/nginx.conf: nginx 主配置文件
  • /etc/nginx/conf.d/default.conf: 默认 virtual host 的配置

修改主配置:

$ sudo vi /etc/nginx/nginx.conf
BASH

4.1.11 NGINX 日志

  • /var/log/nginx/access.log: 访问日志
  • /var/log/nginx/error.log: 错误日志

4.1.12 nginx.conf

主配置文件详细说明如下:

#### 全局块 开始 #####
# 配置允许运行 Nginx 服务器的用户和用户组
#user  nginx nginx;
# 配置允许 Nginx 进程生成的 worker process 数
worker_processes  4;
#worker_cpu_affinity 0001 0010 0100 1000;
# 配置 Nginx 服务器运行时的错误日志文件存放路径和名称
#error_log  logs/error.log;
error_log  logs/error.log  info;
# 配置 Nginx 服务器运行时的 pid 文件存放路径和名称
pid        logs/nginx.pid;
#### 全局块 结束 #####
#### events 块 开始 ####
events {
    # 配置事件驱动模型
    use epoll;
    accept_mutex off;
    multi_accept off;
    worker_connections  65535;  
}
#### events 块 结束 ####
#### http 块 开始 ####
http {
    # 定义 MIME-Type
    include       mime.types;
    default_type  application/octet-stream;
  
    # 配置请求处理日志的格式
    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent $request_time $upstream_response_time "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for" "$host"';
    access_log  logs/access.log  main;
    # 配置允许使用 sendfile 方式传输
    sendfile        on;
    #tcp_nopush     on;
  
    # 配置连接超时时间
    #keepalive_timeout  0;
    keepalive_timeout  65;
  
    # nginx 允许的客户端请求头部的缓冲区大小
    client_header_buffer_size 4k;
    # gzip conf
    gzip  on;
    gzip_min_length 1024;
    gzip_buffers 32 4k;
    gzip_http_version 1.1;
    gzip_comp_level 6;
    gzip_types text/plain application/xml image/x-icon image/svg+xml image/png text/css image/jpeg image/gif application/x-javascript application/javascript application/json;
    gzip_vary on;
    gzip_disable "MSIE [1-6]\.";
  
    # security
    port_in_redirect off;
    server_tokens off;
  
    # proxy buffer 
    proxy_buffers 8 4k;
    proxy_buffer_size 4k;
    proxy_temp_file_write_size 4k;
    proxy_temp_path proxy_temp;
  
    # proxy cache
    # proxy_cache_path cache/ keys_zone=cache_all:10m;
  
    #### server 块 开始 ####
    ## 配置虚拟主机 localhost
    server {
        listen       80 reuseport;
        server_name  localhost;
        #charset koi8-r;
        access_log  logs/host.access.log  main;
        location / {
           root   html;
            index  index.html index.htm;
        }
        error_page  404              /404.html;
        # redirect server error pages to the static page /50x.html
        #
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
  #### server 块 结束 ####
  
    # HTTPS server
    #
    #server {
    #    listen       443 ssl;
    #    server_name  localhost;
    #    ssl_certificate      cert.pem;
    #    ssl_certificate_key  cert.key;
    #    ssl_session_cache    shared:SSL:1m;
    #    ssl_session_timeout  5m;
    #    ssl_ciphers  HIGH:!aNULL:!MD5;
    #    ssl_prefer_server_ciphers  on;
    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}
  
    # virtual hosts
    include conf.d/default.conf;
}
#### http 块 结束 ####
NGINX

建议:

为了保证主配置文件的干净. 建议通过 include conf.d/default.conf; 类似这样的方式来引入其他 virtual hosts 配置.

4.1.13 日志转储

  1. sudo vi /etc/logrotate.d/nginx
  2. 编辑内容:
/var/log/nginx/*.log {
    daily
    rotate 90  # 保留 90 天, 按需调整
    create
    dateext
    #compress  # 是否启用压缩, 按需调整
    #minsize 1M
    #create 0644 nginx nginx  # nginx 日志所属用户和组, 按需调整
    # copytruncate   用于还在打开中的日志文件,把当前日志备份并截断;是先拷贝再清空的方式,拷贝和清空之间有一个时间差,可能会丢失部分日志数据。
    # delaycompress 和 compress 一起使用时,转储的日志文件到下一次转储时才压缩
    missingok
    ifempty # default
    nomail
    #noolddir # default
    sharedscripts   # 运行 postrotate 脚本,作用是在所有日志都轮转后统一执行一次脚本。如果没有配置这个,那么每个日志轮转后都会执行一次脚本
    postrotate  # 在 logrotate 转储之后需要执行的指令,例如重新启动 (kill -HUP) 某个服务!必须独立成行
        if [-f /var/log/nginx/nginx.pid]; then
            kill -USR1 `cat /var/log/nginx/nginx.pid`
        fi
    endscript
}
BASH
  1. 强制运行一次来测试:logrotate -f -v /etc/logrotate.d/nginx(对应目录只能 user 有 w 权限, 否则会报错)
  2. 配置好即可, logrotate 会自动读取 /etc/logrotate.d 的配置并自动执行.

📓 备注:

cron.daily 会在 3:22+(5,45) 这个时间段执行

4.2 NGINX + Keepalived 配置

假定:

假设相关 IP 如下:

  1. VIP: 192.168.0.100
  2. NGINX - 主 IP: 192.168.0.1
  3. NGINX - 从 IP: 192.168.0.2
  4. NGINX - 主从的 IP 对应的网卡为 eth0

4.2.1 Keepalived 安装配置

$ sudo zypper install keepalived=2.0.10
BASH

4.2.2 Keepalived 配置

Keepalived 启动默认读取配置文件路径 /etc/keepalived/keepalived.conf , 添加配置文件:

sudo vi /etc/keepalived/keepalived.conf
BASH

NGINX - 主 机器配置如下:

vrrp_script chk_nginx {
    script "/etc/keepalived/nginx_pid.sh" # 检测 nginx 状态的脚本路径
    interval 2
    weight -20 
    fall 3
}
vrrp_instance VI_1 {
    state MASTER # 从机为 BACKUP
    interface eth0  # 具体的网卡接口看情况进行填写
    virtual_router_id 51 
    priority 110 # 备机权值为 100
    advert_int 1
    authentication {
    auth_type PASS
    auth_pass 123456
    }
    track_script {
        chk_nginx
    }
    virtual_ipaddress {
    192.168.0.100/24 brd 192.168.0.255 dev eth0 label eth0:vip  # 根据实际情况进行修改
    }
}
BASH

配置说明如下:

  1. weight -20: keepalived 配置里 priority 110 是初始权重;主的初始设置了 110,备的设置了 100;如果检测失败,权重 -20. 主从切换.
  2. virtual_router_id 51 自己定义的虚拟路由的 id。vrrp_instance VI_1 块中 virtual_router_id 指令的值 51 是一个示例值; 根据需要改变它,使其在您的环境中独一无二。
  3. 添加

NGINX - 从 机器配置如下:

vrrp_script chk_nginx {
    script "/etc/keepalived/nginx_pid.sh" # 检测 nginx 状态的脚本路径
    interval 2
    weight -20
}
vrrp_instance VI_1 {
    state BACKUP # 辅机为 BACKUP
    interface eth0  # 具体的网卡接口看情况进行填写
    virtual_router_id 51
    priority 100 # 备机权值为 100
    advert_int 1
    authentication {
    auth_type PASS
    auth_pass 123456
    }
    track_script {
        chk_nginx
    }
    virtual_ipaddress {
    192.168.0.100/24 brd 192.168.0.255 dev eth0 label eth0:vip  # 根据实际情况进行修改
    }
}
PF

4.2.3 配置检测脚本

备注:

使用 root 用户

配置检测脚本: /etc/keepalived/nginx_pid.sh

#!/bin/bash
A=`ps -C nginx --no-header|wc -l`
if [$A -eq 0 ]
then
   systemctl start nginx
   exit 1
else 
   exit 0
fi
BASH

赋予执行权限: chmod 750 /etc/keepalived/nginx_pid.sh

4.2.4 启动 Keepalived

键入以下 systemctl 命令以在系统启动时启用 keepalived: (开机自启)

$ sudo systemctl enable keepalived
BASH

启动 Nginx web 服务器:

$ sudo systemctl start keepalived
BASH

验证:

$ systemctl status keepalived
BASH

4.2.4 显示节点状态

要查看当前哪个节点是给定 VIP 的主节点,请在定义 VRRP 实例的接口上运行命令 ip addr show(在以下命令中,eth0节点 suse12-1 和上的接口suse12-2):

suse12-1 # ip addr show eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state
     UP qlen 1000
    link/ether 52:54:00:33:a5:a5 brd ff:ff:ff:ff:ff:ff
    inet 192.168.0.1/24 brd 192.168.0.255 scope global dynamic eth0
       valid_lft 3071sec preferred_lft 3071sec
    inet 192.168.0.100/32 scope global eth0
       valid_lft forever preferred_lft forever
suse12-2 # ip addr show eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state
     UP qlen 1000
    link/ether 52:54:00:33:a5:87 brd ff:ff:ff:ff:ff:ff
    inet 192.168.0.2/24 brd 192.168.0.255 scope global eth0
       valid_lft forever preferred_lft forever
APACHE

在此输出中,第二行 inet 表示 suse12-1 是主节点, 已为其分配了已定义的 VIP(192.168.0.100)。inet 输出中的其他行显示主节点的实际 IP 地址(192.168.0.1)和备用 (或 从) 节点的 IP 地址(192.168.0.2)。

至此, nginx + keepalived 的 负载均衡层高可用 已经配置完成.

4.3 NGINX -> 应用服务层 转发配置

假定:

假设应用系统的相关信息如下:

  1. 请求及业务协议为 HTTP 协议;
  2. 应用系统节点 1 IP 为: 172.30.0.1
  3. 应用系统节点 2 IP 为: 172.30.0.2
  4. 业务系统监听端口为: 8080

4.3.1 修改配置文件

以 mes 系统高可用配置为例(协议为 HTTP 协议), 新增 /etc/nginx/conf.d/mes.conf:

# mes access
upstream mes{
   # ip_hash;  # 源地址会话保持, 按需开启
   server 172.30.0.1:8080;
   server 172.30.0.2:8080;
}
server {
    listen       80;
    #server_name  mes.example.com 192.168.0.100;  # server_name 为对应的访问域名, 按需开启
    #set max uploading file size to 20m
    client_max_body_size 20m;
    #charset koi8-r;
  
    # keepalive
    # 设置代理的 HTTP 协议版本(默认是 1.0 版本)
    proxy_http_version 1.1;    # 按需调整
    # 允许重新定义或追加字段到传递给代理服务器的请求头信息(默认是 close)
    proxy_set_header Connection "";
  
    proxy_set_header HOST $http_host;
    proxy_set_header X-Real-IP $remote_addr;
    proxy_set_header   X-Forwarded-For  $proxy_add_x_forwarded_for;
  
    access_log  logs/mes_access.log main buffer=16k flush=5m;
    error_log logs/mes_error.log;
    location / {
        #root   html;
        #index  index.html index.htm;
        proxy_pass http://mes;
        #proxy_redirect off;
        # proxy_cache cache_all;
    }
    #error_page  404              /404.html;
    # redirect server error pages to the static page /50x.html
    #
    #error_page   500 502 503 504  /50x.html;
    #location = /50x.html {
    #    root   html;
    #}
}
NGINX

4.3.2 主配置文件 include

在 http 块新增如下内容

include conf.d/mes.conf;
NGINX

4.3.2 重新加载 nginx

更改配置后重新加载 Ngnix 使配置生效:

sudo systemctl reload nginx

4.3.3 验证

通过 VIP 进行访问, 查看对应应用系统日志, 观察是否 2 个节点都接收到请求.

五 变更控制流程

严格遵循 制造业本公司的变更控制规范. 进行相关的变更控制和审批流程.

一个新的应用需要上线或者变更,通常涉及以下步骤:

可以随时实施的变更:

  1. 系统项目组需至少提供端口、路径、后端地址(域名可选);
  2. /etc/nginx/conf.d 中增加一个配置文件;
  3. /etc/nginx/nginx.conf 中增加一个 include,指向新增的配置文件;

需要在变更窗口进行的变更:

  1. 重新载入 (sudo systemctl reload nginx) 配置.
  2. 通知用户, 访问的 Server IP 由: 原应用服务器 IP 调整为 NGINX 的 VIP.
  3. 修改客户端和浏览器配置, 访问的 Server IP 由: 原应用服务器 IP 调整为 NGINX 的 VIP.
  4. 验证变更是否成功.

5.1 回退步骤

回退较为简单, 步骤如下:

  1. 通知用户, 访问的 Server IP 调整为: 原应用服务器 IP.
  2. 修改客户端和浏览器配置, 访问的 Server IP 调整为: 原应用服务器 IP.
  3. 回退完成
  4. 验证回退是否成功.

参考文件

相关文章
|
5月前
|
消息中间件 缓存 应用服务中间件
Nginx系列教程(02) - 高可用与高并发介绍
Nginx系列教程(02) - 高可用与高并发介绍
54 0
|
4月前
|
负载均衡 前端开发 应用服务中间件
NGINX高可用之keepalived+nginx主从模式+主主模式配置实践
NGINX高可用之keepalived+nginx主从模式+主主模式配置实践
137 1
|
5月前
|
应用服务中间件 Shell nginx
Nginx + keepalived 实现高可用 + 防盗链 + 动静分离(二)
Nginx + keepalived 实现高可用 + 防盗链 + 动静分离
|
5月前
|
负载均衡 NoSQL 应用服务中间件
Nginx + keepalived 实现高可用 + 防盗链 + 动静分离(一)
Nginx + keepalived 实现高可用 + 防盗链 + 动静分离
|
5月前
|
Kubernetes 应用服务中间件 Linux
suse 12 编译部署Keepalived + nginx 为 kube-apiserver 提供高可用
suse 12 编译部署Keepalived + nginx 为 kube-apiserver 提供高可用
58 0
|
6月前
|
负载均衡 应用服务中间件 nginx
71分布式电商项目 - nginx高可用以及lvs+nginx负载均衡(资料)
71分布式电商项目 - nginx高可用以及lvs+nginx负载均衡(资料)
41 0
|
6月前
|
监控 应用服务中间件 Linux
Nginx之防盗链及高可用解读
Nginx之防盗链及高可用解读
|
6月前
|
Ubuntu
nginx+keepalived实现高可用
如果通过keepalived实现高可用
66 0
|
26天前
|
运维 前端开发 应用服务中间件
LNMP详解(八)——Nginx动静分离实战配置
LNMP详解(八)——Nginx动静分离实战配置
28 0
|
25天前
|
前端开发 应用服务中间件 nginx
Nginx配置详解Docker部署Nginx使用Nginx部署vue前端项目
Nginx配置详解Docker部署Nginx使用Nginx部署vue前端项目
100 0