【云原生】Rancher部署k8s集群流程—2023.03

简介: 【云原生】Rancher部署k8s集群流程—2023.03

整体思路:

首先,准备好4台服务器,并且固定好IP;其次将4台服务器初始化,并在4台服务器上安装docker;然后在rancher节点的服务器上安装rancher,安装成功过后就可以通过IP+端口号访问rancher页面进行可视化操作了;最后在rancher节点服务器上创建配置文件,部署kubectl,就可以通过rancher节点控制整个集群了。


1. 准备工作


准备了4台机器,一台rancher,一台master,2台node,固定好IP,可以参考这篇文章,帮助您固定虚拟机IP(此处有超链接)

主机名称 IP 部署内容 组件
k8s-rancher 192.168.2.21 rancher docker\rancher\kubectl
k8s-master1 192.168.2.22 master1 docker
k8s-node1 192.168.2.23 node1 docker
k8s-node2 192.168.2.24 node2 docker


2. 初始化操作


2.1 关闭防火墙

systemctl disable firewalld  #永久关闭,移除开机自启项,以后开机不会启动
systemctl stop firewalld  #临时关闭,立刻关闭


2.2 关闭selinux

sed -i 's/enforcing/disabled/' /etc/selinux/config   # 修改selinux配置文件为关闭状态,以后开机不会启动
setenforce 0   #临时关闭,立刻关闭


2.3 关闭swap分区

sed -ri 's/.*swap.*/#&/' /etc/fstab  # 修改swap配置文件为关闭状态,以后开机不会启动
swapoff -a  #临时关闭,立刻关闭


2.4 设置主机名

hostnamectl set-hostname <设定的主机名称>
bash   # 刷新


2.5 修改hosts表

cat >> /etc/hosts << EOF
192.168.2.21 k8s-rancher
192.168.2.22 k8s-master1
192.168.2.23 k8s-node1
192.168.2.24 k8s-node2
EOF


2.6 时间同步

yum -y install ntpdate 
ntpdate time.windows.com


2.7 流量转发

# 将桥接的 IPv4 流量传递到 iptables 的链
cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
cat >> /etc/sysctl.conf<<EOF
net.ipv4.ip_forward=1
net.bridge.bridge-nf-call-iptables=1
net.ipv4.neigh.default.gc_thresh1=4096
net.ipv4.neigh.default.gc_thresh2=6144
net.ipv4.neigh.default.gc_thresh3=8192
EOF
#加载
modprobe br_netfilter
sysctl -p
sysctl --system   # 生效


3. 部署docker


安装之前确保没有其他dockers版本,如果有别的版本会有冲突,需要把原有的卸载再安装,可以参考这篇文章,卸载dockers(此处有超链接)

在4台服务器即所有节点上部署。

# 下载docker的yum源
wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo 
# 安装docker,找上一步的yum源去安装
yum  -y install docker-ce-20.10.12-3.el7
# 开机自启动并且启动docker
systemctl enable docker && systemctl start docker 
# 查看docker版本
docker --version
# 设置docker拉取镜像的加速器
cat > /etc/docker/daemon.json << EOF 
{
 "registry-mirrors": ["https://b9pmyelo.mirror.aliyuncs.com"] 
}
EOF
# 重启docker
systemctl daemon-reload
systemctl restart docker


4. 部署rancher


在k8s-rancher服务器上部署rancher,这里部署的是2.6版本

docker run -d --restart=unless-stopped -p 8080:80 -p 8443:443 --privileged rancher/rancher:v2.6.3


5. 配置rancher


完成后,访问https://<部署主机的ip>:8443 ,进入rancher管理页面。

0c5da0b3b95d4dce90ec119c417da426.png

可以看到rancher的引导信息,提示需要进行如下操作,按照提示操作即可

# 找到容器ID
docker ps
# 找到容器对应的密码
docker logs  ${container-id}  2>&1 | grep "Bootstrap Password:"

a284a2cdaf4840ec96e6a57f61cbcebb.png

将密码输入到对话框里,点击“Log in with Local User”。

在下表面的页面填写好新密码和Server URL,然后点击Continue。

注意:

密码至少12位

Server URL一定要填写IP地址

574ab374a3104bb88e8edf57566803b9.png

可以在左侧设置语言

bffc003aea7c430e83f0da7d983d8e77.png


6. 创建k8s集群


点击创建

f158093ee6784099a45302064c8d4989.png

选择自定义

1d8282cdd850436f93379b34d9eeca00.png

输入集群名字,选择版本

93f1b28784a84b488174cf406ddec4db.png

在“Advanced Options”中进行高级设置,比如:选择是否启用Nginx Ingress,我这里没有选择没有开启。这个设置项后续可以点击rancher界面中此集群的升级按钮进行重新选择。

758b5f2baca546b1833d052b8abd5c5d.png

点击“Next”后,进入添加主机命令页面

0ac0eb7fa93e4973b5cabf04ecef083c.png

点选Etcd,Control Plan两个选项,最好把Worker选项也选上,然后复制下方的命令,到master1节点执行,这里没有选择Worker。如果部署的是多个master节点的集群,只要把对应的命令在每一台master节点上执行就可以。

点选Worker选项,然后复制下方的命令,到2个node节点执行。

46a9b422fa394012823b4aceca5d8045.png

当集群前面的状态变成Active时,就表示集群部署完成。

4ee7179a5470418ea6cc0561527badc0.png

可以点击集群的名称,进入集群详情页

650d7b32cb7f459eb177fe1b7d2cfc4f.png

点击箭头处的标识,可以下载集群的配置文件保存。

在k8s-rancher服务器上创建文件夹.kube,并在此文件夹下创建config文件,将下载的配置文件内容复制进去,保存退出,

e5a3e7a53dfa4319a0ddc07795d3191e.png

然后在k8s-rancher服务器部署kubectl命令,就可以通过kubectl命令控制集群了。

cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
yum install -y kubectl


查看节点状态

kubectl get nodes


661cb4e775e34a1da61e90159b149d4a.png

到这里,rancher部署单master节点的k8s集群就完成了。整体下来给我的感觉就是方便,不用再修改配置文件,也不用再去找错误了,大大的缩短了部署集群的时间。在可视化平台上只需要点一点,集群就轻松部署完成了非常方便。

相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务&nbsp;ACK 容器服务&nbsp;Kubernetes&nbsp;版(简称&nbsp;ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情:&nbsp;https://www.aliyun.com/product/kubernetes
相关文章
|
2天前
|
Kubernetes 网络协议 Python
一文教会你,如何通过kubeadm,在生产环境部署K8S高可用集群(二)
一文教会你,如何通过kubeadm,在生产环境部署K8S高可用集群(二)
|
2天前
|
Kubernetes 应用服务中间件 开发工具
一文教会你,如何通过kubeadm,在生产环境部署K8S高可用集群(一)
一文教会你,如何通过kubeadm,在生产环境部署K8S高可用集群(一)
|
6天前
|
Kubernetes 负载均衡 应用服务中间件
部署一套完整的Kubernetes高可用集群(二进制,最新版v1.18)下
部署一套完整的Kubernetes高可用集群(二进制,最新版v1.18)下
部署一套完整的Kubernetes高可用集群(二进制,最新版v1.18)下
|
6天前
|
Kubernetes 安全 前端开发
部署一套完整的Kubernetes高可用集群(二进制,最新版v1.18)上
部署一套完整的Kubernetes高可用集群(二进制,最新版v1.18)上
|
7天前
|
Kubernetes Shell 网络安全
Shell脚本快速部署Kubernetes(K8S v1.1版本)集群系统
Shell脚本快速部署Kubernetes(K8S v1.1版本)集群系统
|
9天前
|
敏捷开发 存储 缓存
云效产品使用常见问题之通过vpc内网部署到ack失败如何解决
云效作为一款全面覆盖研发全生命周期管理的云端效能平台,致力于帮助企业实现高效协同、敏捷研发和持续交付。本合集收集整理了用户在使用云效过程中遇到的常见问题,问题涉及项目创建与管理、需求规划与迭代、代码托管与版本控制、自动化测试、持续集成与发布等方面。
|
17天前
|
Kubernetes 监控 Cloud Native
构建高效云原生应用:基于Kubernetes的微服务治理实践
【4月更文挑战第13天】 在当今数字化转型的浪潮中,企业纷纷将目光投向了云原生技术以支持其业务敏捷性和可扩展性。本文深入探讨了利用Kubernetes作为容器编排平台,实现微服务架构的有效治理,旨在为开发者和运维团队提供一套优化策略,以确保云原生应用的高性能和稳定性。通过分析微服务设计原则、Kubernetes的核心组件以及实际案例,本文揭示了在多变的业务需求下,如何确保系统的高可用性、弹性和安全性。
18 4
|
16天前
|
Kubernetes 搜索推荐 Docker
使用 kubeadm 部署 Kubernetes 集群(二)k8s环境安装
使用 kubeadm 部署 Kubernetes 集群(二)k8s环境安装
63 17
|
2月前
|
人工智能 监控 Cloud Native
iLogtail 2.0 来了;通义灵码下载量破百万丨阿里云云原生 2 月产品月报
iLogtail 2.0 来了;通义灵码下载量破百万丨阿里云云原生 2 月产品月报
|
3月前
阿里云云原生恭祝大家新年快乐!
阿里云云原生恭祝大家新年快乐!

推荐镜像

更多