【k8s】多节点master部署k8s集群详解、步骤带图、配置文件带注释(下)

简介: 文章目录前言一、部署详解1.1 架构1.2 初始化环境(所有节点)

1.6 部署flannel网络组件(命令)

cd /opt
#上传cni-plugins-linux-amd64-v0.8.6.tgz和flannel.tar到/opt目录中
docker load -i flannel.tar
mkdir -p /opt/cni/bin
tar zxvf cni-plugins-linux-amd64-v0.8.6.tgz -C /opt/cni/bin
#在master01节点上操作上传kube-flannel.yml文件到/opt/kubernetes目录中,部署CNI网络(39-44行可能需要改)
cd /opt/kubernetes
#此时可能需要等待几秒钟,才会出现ready
kubectl apply -f kube-flannel.yml 
kubectl get nodes
#单节点master部署k8s至此结束

1.6 部署flannel网络组件(截图)


1.7 部署master02节点(命令)

#多节点部署#多节点部署
#在master01节点上操作,复制文件给master02
scp -r /opt/etcd/ root@192.168.13.40:/opt/
scp -r /opt/kubernetes/ root@192.168.13.40:/opt/
cd /usr/lib/systemd/system
scp kube-apiserver.service kube-controller-manager.service kube-scheduler.service root@192.168.13.40:`pwd`
cd ~
scp -r .kube/ 192.168.13.40:/root
#在master02上操作,进行配置文件部署
hostnamectl set-hostname master02
su
vim /opt/kubernetes/cfg/kube-apiserver
  第5行:地址修改为master02地址
  第7行:地址修改为master02地址
#创建命令链接
ln -s /opt/kubernetes/bin/* /usr/local/bin
#启动kube-apiserver、scheduler、controller-manager三项服务
systemctl enable --now kube-apiserver.service 
systemctl enable --now kube-controller-manager.service 
systemctl enable --now kube-scheduler.service 
#查看服务是否启动
systemctl status kube-apiserver.service 
systemctl status kube-controller-manager.service 
systemctl status kube-scheduler.service 

1.7 部署master02节点(截图)


1.8 部署nginx负载均衡节点(命令)

#所有nginx负载均衡节点
cat > /etc/yum.repos.d/nginx.repo << EOF
[nginx]
name=nginx repo
baseurl=http://nginx.org/packages/centos/7/\$basearch/
gpgcheck=0
EOF
yum install -y nginx
vim /etc/nginx/nginx.conf
#添加如下内容(http模块同级别)
stream {
    log_format  main  '$remote_addr $upstream_addr - [$time_local] $status $upstream_bytes_sent';
    access_log  /var/log/nginx/k8s-access.log  main;
    upstream k8s-apiservers {
        server 192.168.13.10:6443;
        server 192.168.13.40:6443;
    }
    server {
        listen 6443;
        proxy_pass k8s-apiservers;
    }
}
#添加内容到此结束
nginx -t
systemctl enable --now nginx
yum install -y keepalived
vim /etc/keepalived/keepalived.conf
  10行:smtp_server 127.0.0.1
  12行:router_id NGINX_01
  13-16行:删除
  14行:插入周期性执行脚本
  vrrp_script check_nginx {
    script "/etc/nginx/check_nginx.sh"
  }
  21行:interface ens33
  30行:192.168.13.100/32
  31-32:ip地址删除
  33行:留两个大括号,下面全部删除
  倒数第二行:最后一个大括号上方插入
    track_script {
        check_nginx
    }
#编写nginx检查脚本
vim /etc/nginx/check_nginx.sh
#!/bin/bash
#egrep -cv "grep|$$"用于过滤掉包含grep或者$$表示的当前shell进程ID
count=$(ps -ef | grep nginx | egrep -cv "grep|$$")
if [ "$count" -eq 0 ];then
    systemctl stop keepalived
fi
chmod +x /etc/nginx/check_nginx.sh
scp /etc/nginx/check_nginx.sh root@192.168.13.60:/etc/nginx/check_nginx.sh
systemctl enable --now keepalived.service
systemctl status keepalived.service
ip addr
#在node节点上操作
vim /opt/kubernetes/cfg/bootstrap.kubeconfig
vim /opt/kubernetes/cfg/kubelet.kubeconfig
vim /opt/kubernetes/cfg/kube-proxy.kubeconfig
  都是第5行:server: https://192.168.13.100:6443
#或者用sed命令,可以免交互修改
#sed -i 's!    server: https://192.168.13.10:6443!    server: https://192.168.13.100:6443!' /opt/kubernetes/cfg/bootstrap.kubeconfig
#sed -i 's!    server: https://192.168.13.10:6443!    server: https://192.168.13.100:6443!' /opt/kubernetes/cfg/kubelet.kubeconfig
#sed -i 's!    server: https://192.168.13.10:6443!    server: https://192.168.13.100:6443!' /opt/kubernetes/cfg/kube-proxy.kubeconfig
#重启kubele、proxy服务
systemctl restart kubelet.service
systemctl restart kube-proxy.service
#master02节点执行下方命令检查是否部署成功
kubectl get nodes
kubectl run nginx --image=nginx
#此时大概需要等待十来秒(下载镜像,下载好后ready1/1)
kubectl get pods -o wide
#多节点部署至此结束

1.8 部署nginx负载均衡节点(截图)

二、结语

  • 按照脚本刷,指定没问题,唯一要注意的就是步骤太多,需要细心
  • 要多做几遍,错了就排障,排不出来就重做,只有多做几遍,才能知道每一步骤是干嘛的
  • 错误1:单节点master01找不到node节点:报错是No resources found(解决:node节点没安装docker引擎,安装即可),当然我的报错是因为这个,如果你配置文件写错了,也可能会出现这种情况
  • 错误2:etcd启动不起来,无报错(原因:etcd脚本之前有错误,却直接执行了,形成了缓存;解决:删除缓存rm -rf /var/lib/etcd/*),当然,也可能是你证书文件生成失败、证书不匹配之类的
  • 小技巧:利用:kubectl describe pod定位异常问题的具体信息
相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。 &nbsp; &nbsp; 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
存储 Kubernetes 开发工具
使用ArgoCD管理Kubernetes部署指南
ArgoCD 是一款基于 Kubernetes 的声明式 GitOps 持续交付工具,通过自动同步 Git 存储库中的配置与 Kubernetes 集群状态,确保一致性与可靠性。它支持实时同步、声明式设置、自动修复和丰富的用户界面,极大简化了复杂应用的部署管理。结合 Helm Charts,ArgoCD 提供模块化、可重用的部署流程,显著减少人工开销和配置错误。对于云原生企业,ArgoCD 能优化部署策略,提升效率与安全性,是实现自动化与一致性的理想选择。
884 0
|
存储 Kubernetes 异构计算
Qwen3 大模型在阿里云容器服务上的极简部署教程
通义千问 Qwen3 是 Qwen 系列最新推出的首个混合推理模型,其在代码、数学、通用能力等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型相比,表现出极具竞争力的结果。
|
存储 Kubernetes 监控
K8s集群实战:使用kubeadm和kuboard部署Kubernetes集群
总之,使用kubeadm和kuboard部署K8s集群就像回归童年一样,简单又有趣。不要忘记,技术是为人服务的,用K8s集群操控云端资源,我们不过是想在复杂的世界找寻简单。尽管部署过程可能遇到困难,但朝着简化复杂的目标,我们就能找到意义和乐趣。希望你也能利用这些工具,找到你的乐趣,满足你的需求。
1151 33
|
Kubernetes 开发者 Docker
集群部署:使用Rancher部署Kubernetes集群。
以上就是使用 Rancher 部署 Kubernetes 集群的流程。使用 Rancher 和 Kubernetes,开发者可以受益于灵活性和可扩展性,允许他们在多种环境中运行多种应用,同时利用自动化工具使工作负载更加高效。
748 19
|
7月前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
605 1
|
7月前
|
弹性计算 监控 调度
ACK One 注册集群云端节点池升级:IDC 集群一键接入云端 GPU 算力,接入效率提升 80%
ACK One注册集群节点池实现“一键接入”,免去手动编写脚本与GPU驱动安装,支持自动扩缩容与多场景调度,大幅提升K8s集群管理效率。
430 89
|
12月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
ACK One 的多集群应用分发,可以最小成本地结合您已有的单集群 CD 系统,无需对原先应用资源 YAML 进行修改,即可快速构建成多集群的 CD 系统,并同时获得强大的多集群资源调度和分发的能力。
838 9
|
12月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
本文介绍如何利用阿里云的分布式云容器平台ACK One的多集群应用分发功能,结合云效CD能力,快速将单集群CD系统升级为多集群CD系统。通过增加分发策略(PropagationPolicy)和差异化策略(OverridePolicy),并修改单集群kubeconfig为舰队kubeconfig,可实现无损改造。该方案具备多地域多集群智能资源调度、重调度及故障迁移等能力,帮助用户提升业务效率与可靠性。
|
人工智能 分布式计算 调度
打破资源边界、告别资源浪费:ACK One 多集群Spark和AI作业调度
ACK One多集群Spark作业调度,可以帮助您在不影响集群中正在运行的在线业务的前提下,打破资源边界,根据各集群实际剩余资源来进行调度,最大化您多集群中闲置资源的利用率。
|
Prometheus Kubernetes 监控
OpenAI故障复盘 - 阿里云容器服务与可观测产品如何保障大规模K8s集群稳定性
聚焦近日OpenAI的大规模K8s集群故障,介绍阿里云容器服务与可观测团队在大规模K8s场景下我们的建设与沉淀。以及分享对类似故障问题的应对方案:包括在K8s和Prometheus的高可用架构设计方面、事前事后的稳定性保障体系方面。

推荐镜像

更多