基于Kubernetes v1.25.0和Docker部署高可用集群(01部分)

本文涉及的产品
容器镜像服务 ACR,镜像仓库100个 不限时长
Serverless 应用引擎免费试用套餐包,4320000 CU,有效期3个月
可观测可视化 Grafana 版,10个用户账号 1个月
简介: 基于Kubernetes v1.25.0和Docker部署高可用集群(01部分)

k8s.jpg


作者设置:由于当前各个常用镜像站无法正常代理下载镜像,这篇实验中所用到的镜像建议先从网络下载获取再导入到私仓使用,

或私信后台回复:9521 获取~ ~

另外这份实验材料总结下来出奇的字数多,提示超出字数,所以这篇分为了3章来发布


目录描述

  • Kubernetes高可用集群部署架构要求说明
  • Kubeadm部署Kubernetes v1.25.0高可用集群(一部分)
  • Kubeadm部署Kubernetes v1.25.0高可用集群(二部分)
  • Kubeadm部署Kubernetes v1.25.0高可用集群(完结)


一、实验环境配置要求

该次实验中的Kubernetes集群部署将基于以下环境进行:

1. 主机配置:

  • 共5台主机,角色分工如下:
  • 每个主机2G内存以上,2核CPU以上
  • 操作系统: Ubuntu 20.04.4
  • Kubernetes:v1.25.0
  • Container Runtime: Docker CE 20.10.17
  • CRI:cri-dockerd v0.2.5

2. 网络环境:

  • 节点网络:192.168.157.0/24(自定义),节点地址分配如下:
  • Pod网络:10.244.0.0/16(默认)
  • Service网络:10.96.0.0/12(默认)
  • 架构展示如下:

3. 基于Kubeadm实现Kubernetes v1.25.0集群部署流程说明

官方说明

https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/

https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/install-kubeadm/

https://kubernetes.io/zh-cn/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/

使用 kubeadm ,能创建一个符合最佳实践的最小化 Kubernetes 集群。 事实上,你可以使用 kubeadm配置一个通过 Kubernetes 一致性测试的集群。 kubeadm 还支持其他集群生命周期功能, 例如启动引导令牌和集群升级。

  • Kubernetes集群API访问入口的高可用
  • 每个节点主机的初始环境准备
  • 在所有Master和Node节点都安装容器运行时,实际Kubernetes只使用其中的Containerd
  • 在所有Master和Node节点安装kubeadm 、kubelet、kubectl
  • 在所有节点安装和配置 cri-dockerd
  • 在第一个 master 节点运行 kubeadm init 初始化命令 ,并验证 master 节点状态
  • 在第一个 master 节点安装配置网络插件
  • 在其它master节点运行kubeadm join 命令加入到控制平面集群中
  • 在所有 node 节点使用 kubeadm join 命令加入集群
  • 创建 pod 并启动容器测试访问 ,并测试网络通信


二、Kubeadm部署Kubernetes v1.25.0高可用集群

1. 部署集群API访问入口的高可用

在192.168.157.101和192.168.157.102上执行操作,利用 HAProxy 实现 Kubeapi 服务的负载均衡

1.1 安装Hapaoxy

#修改内核参数
root@master1ha1:~# cat >> /etc/sysctl.conf <<EOF
net.ipv4.ip_nonlocal_bind = 1
EOF
root@master1ha1:~# sysctl -p
net.ipv4.ip_nonlocal_bind = 1
#安装配置haproxy
root@master1ha1:~# apt update 
root@master1ha1:~# apt -y install haproxy
#添加下面行参数
root@master1ha1:~# cat >> /etc/haproxy/haproxy.cfg <<EOF
listen stats
        mode http
        bind 0.0.0.0:8888
        stats enable
        log global
        stats uri /status
        stats auth admin:123456
listen kubernetes-api-6443
        bind 192.168.157.100:16443  #备注:IP写*,端口改9443
        mode tcp
        server master1ha1 192.168.157.101:6443 check inter 3s fall 3 rise 3
        server master2ha2 192.168.157.102:6443 check inter 3s fall 3 rise 3
        server master3harbor1 192.168.157.103:6443 check inter 3s fall 3 rise 3
EOF
#测试配置是否正确,并做重启配置生效
root@master1ha1:~# haproxy -f /etc/haproxy/haproxy.cfg -c
[WARNING] 169/064553 (1896) : parsing [/etc/haproxy/haproxy.cfg:23] : 'option httplog' not usable with proxy 'kubernetes-api-6443' (needs 'mode http'). Falling back to 'option tcplog'.
Configuration file is valid
root@master1ha1:~# systemctl restart haproxy
#检查服务vip和端口监听正常后,做服务开机自启
root@master1ha1:~# ss -ntl
State         Recv-Q        Send-Q                   Local Address:Port                 Peer Address:Port        Process        
LISTEN        0             4096                     127.0.0.53%lo:53                        0.0.0.0:*                          
LISTEN        0             128                            0.0.0.0:22                        0.0.0.0:*                          
LISTEN        0             4096                           0.0.0.0:8888                      0.0.0.0:*                          
LISTEN        0             128                          127.0.0.1:6010                      0.0.0.0:*                          
LISTEN        0             4096                   192.168.157.100:6443                      0.0.0.0:*                          
LISTEN        0             128                               [::]:22                           [::]:*                          
LISTEN        0             128                              [::1]:6010                         [::]:*                          
root@master1ha1:~# systemctl enable haproxy

1.2 安装 Keepalived

安装 keepalived 实现 HAProxy的高可用

root@master1ha1:~# apt update
root@master1ha1:~# apt -y install keepalived
root@master1ha1:~# vim /etc/keepalived/keepalived.conf
! Configuration File for keepalived
  
global_defs {
   router_id ha1.org            #指定router_id,#在ha2上为ha2.org
}
vrrp_script check_haproxy {     #定义检测脚本
   script "/etc/keepalived/check_haproxy.sh"
   interval 1
   weight -30
   fall 3
   rise 2
   timeout 2
}
vrrp_instance VI_1 {
    state MASTER                        #另一台ha2为BACKUP
    interface ens33
    virtual_router_id 60                #指定虚拟路由器ID,ha1和ha2此值必须相同
    priority 100                        #在ha2上为80
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 123456                #指定验证密码,ha1和ha2此值必须相同
    }
    virtual_ipaddress {
        192.168.157.100                 #指定VIP,ha1和ha2此值必须相同
    }
    track_script {
        check_haproxy            #调用上面定义的检测脚本
    }
}
#添加keepalived中的执行脚本并赋权,最后操作服务重启和设置开机自启
root@master1ha1:~# cat > /etc/keepalived/check_haproxy.sh <<EOF
#!/bin/bash
/usr/bin/killall -0 haproxy || systemctl restart haproxy
EOF
root@master1ha1:~# chmod a+x /etc/keepalived/check_haproxy.sh
root@master1ha1:~# systemctl restart keepalived
root@master1ha1:~# systemctl enable keepalived

补充:我是在5台节点初始化操作系统后,就把hosts解析写进去了,在 5台节点的/etc/hosts添加一下

root@master1ha1:~# vim /etc/hosts
127.0.0.1 localhost
127.0.1.1 master1_ha1 #这里记得更正为当前台的
# The following lines are desirable for IPv6 capable hosts
::1     ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
192.168.157.100 vip
192.168.157.101 master1ha1
192.168.157.102 master2ha2
192.168.157.103 master3harbor1
192.168.157.104 node1
192.168.157.105 node2

后面的测试需要在本机上进行,所以本机host解析也得加一下,我这里偷懒用了huo绒自带的修改工具,修改添加如下:

1.3 测试访问

经过上面的本机hosts配置过,就可以在浏览器上测试vip地址的访问验证,用户名密码是前面配置的 admin:123456

http://vip:8888/status

2. 所有的主机做初始化配置

2.1 配置ssh key验证

配置 ssh key 验证,做免密后,方便集群内同步文件

#生成key,实验环境,直接把回车敲到底
root@master1ha1:~# ssh-keygen 
#将id_rsa.pub文件同步到所有节点
root@master1ha1:~# ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.157.101
root@master1ha1:~# ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.157.102
root@master1ha1:~# ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.157.103
root@master1ha1:~# ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.157.104
root@master1ha1:~# ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.157.105
#测试一下能否免密登录到其他4个节点
root@master1ha1:~# ssh root@192.168.157.102
root@master1ha1:~# ssh root@192.168.157.103
root@master1ha1:~# ssh root@192.168.157.104
root@master1ha1:~# ssh root@192.168.157.105

2.2 设置主机名和解析

上面已经配置过了

2.3 禁用 swap

swapoff -a
sed -i '/swap/s/^/#/' /etc/fstab
#或者
systemctl disable --now swap.img.swap
systemctl mask swap.target

2.4 配时间同步

#借助于chronyd服务(程序包名称chrony)设定各节点时间精确同步
apt -y install chrony
chronyc sources -v

2.5 禁用默认防火墙

#禁用默认配置的iptables防火墙服务
ufw disable
ufw status

2.6 内核参数调整(可选)

允许 iptables 检查桥接流量,若要显式加载此模块,需运行 sudo modprobe br_netfilter,通过运行lsmod | grep br_netfilter 来验证 br_netfilter 模块是否已加载.

sudo modprobe br_netfilter
lsmod | grep br_netfilter

为了让 Linux 节点的 iptables 能够正确查看桥接流量,请确认 sysctl 配置中的 net.bridge.bridge-nf-call-iptables 设置为 1。

cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
overlay
br_netfilter
EOF
modprobe overlay
modprobe br_netfilter
# 设置所需的 sysctl 参数,参数在重新启动后保持不变
cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-iptables  = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.ip_forward                 = 1
EOF
# 应用 sysctl 参数而不重新启动
sysctl --system

最后~欢迎关注我! @Linux学习的那些事儿

我的个人资源整理,满满都是干货:可按需访问领取

200T免费资料,持续发布中...

如果本文对你有帮助,欢迎点赞、收藏、转发给朋友,让我有持续创作的动力!

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
8天前
|
监控 NoSQL 时序数据库
《docker高级篇(大厂进阶):7.Docker容器监控之CAdvisor+InfluxDB+Granfana》包括:原生命令、是什么、compose容器编排,一套带走
《docker高级篇(大厂进阶):7.Docker容器监控之CAdvisor+InfluxDB+Granfana》包括:原生命令、是什么、compose容器编排,一套带走
130 77
|
6天前
|
Kubernetes 容灾 调度
阿里云 ACK 高可用稳定性最佳实践
本文整理自2024云栖大会刘佳旭的演讲,主题为《ACK高可用稳定性最佳实践》。文章探讨了云原生高可用架构的重要性,通过Kubernetes的高可用案例分析,介绍了ACK在单集群高可用架构设计、产品能力和最佳实践方面的方法,包括控制面和数据面的高可用策略、工作负载高可用配置、企业版容器镜像服务高可用配置等内容,旨在帮助企业构建更加可靠和高效的应用运行环境。
|
6天前
|
存储 Kubernetes 关系型数据库
阿里云ACK备份中心,K8s集群业务应用数据的一站式灾备方案
本文源自2024云栖大会苏雅诗的演讲,探讨了K8s集群业务为何需要灾备及其重要性。文中强调了集群与业务高可用配置对稳定性的重要性,并指出人为误操作等风险,建议实施周期性和特定情况下的灾备措施。针对容器化业务,提出了灾备的新特性与需求,包括工作负载为核心、云资源信息的备份,以及有状态应用的数据保护。介绍了ACK推出的备份中心解决方案,支持命名空间、标签、资源类型等维度的备份,并具备存储卷数据保护功能,能够满足GitOps流程企业的特定需求。此外,还详细描述了备份中心的使用流程、控制台展示、灾备难点及解决方案等内容,展示了备份中心如何有效应对K8s集群资源和存储卷数据的灾备挑战。
|
16天前
|
Prometheus 监控 Cloud Native
如何使用Prometheus监控Docker Swarm集群的资源使用情况?
还可以根据实际需求进行进一步的配置和优化,如设置告警规则,当资源使用超出阈值时及时发出警报。通过这些步骤,能够有效地使用 Prometheus 对 Docker Swarm 集群的资源进行监控和管理。
35 8
|
16天前
|
Prometheus 监控 Cloud Native
如何监控Docker Swarm集群的性能?
如何监控Docker Swarm集群的性能?
62 8
|
17天前
|
监控 Docker 容器
Docker Swarm集群的扩展与缩容策略,涵盖其意义、方法、步骤及注意事项
本文深入探讨了Docker Swarm集群的扩展与缩容策略,涵盖其意义、方法、步骤及注意事项,旨在帮助用户高效管理集群资源,适应业务变化,确保服务稳定性和资源优化。
40 6
|
15天前
|
Java 应用服务中间件 Docker
将基于 Spring 的 WAR 应用程序部署到 Docker:详尽指南
将基于 Spring 的 WAR 应用程序部署到 Docker:详尽指南
22 2
|
18天前
|
Kubernetes 监控 云计算
Docker与Kubernetes的协同工作
Docker与Kubernetes的协同工作
|
18天前
|
运维 Kubernetes Docker
深入理解容器化技术:Docker与Kubernetes的协同工作
深入理解容器化技术:Docker与Kubernetes的协同工作
41 1
|
18天前
|
Kubernetes 开发者 Docker
Docker与Kubernetes的协同工作
Docker与Kubernetes的协同工作

相关产品

  • 容器服务Kubernetes版