【云原生】Rancher部署k8s集群流程—2023.03

简介: 【云原生】Rancher部署k8s集群流程—2023.03

整体思路:

首先,准备好4台服务器,并且固定好IP;其次将4台服务器初始化,并在4台服务器上安装docker;然后在rancher节点的服务器上安装rancher,安装成功过后就可以通过IP+端口号访问rancher页面进行可视化操作了;最后在rancher节点服务器上创建配置文件,部署kubectl,就可以通过rancher节点控制整个集群了。


1. 准备工作


准备了4台机器,一台rancher,一台master,2台node,固定好IP,可以参考这篇文章,帮助您固定虚拟机IP(此处有超链接)

主机名称 IP 部署内容 组件
k8s-rancher 192.168.2.21 rancher docker\rancher\kubectl
k8s-master1 192.168.2.22 master1 docker
k8s-node1 192.168.2.23 node1 docker
k8s-node2 192.168.2.24 node2 docker


2. 初始化操作


2.1 关闭防火墙

systemctl disable firewalld  #永久关闭,移除开机自启项,以后开机不会启动
systemctl stop firewalld  #临时关闭,立刻关闭


2.2 关闭selinux

sed -i 's/enforcing/disabled/' /etc/selinux/config   # 修改selinux配置文件为关闭状态,以后开机不会启动
setenforce 0   #临时关闭,立刻关闭


2.3 关闭swap分区

sed -ri 's/.*swap.*/#&/' /etc/fstab  # 修改swap配置文件为关闭状态,以后开机不会启动
swapoff -a  #临时关闭,立刻关闭


2.4 设置主机名

hostnamectl set-hostname <设定的主机名称>
bash   # 刷新


2.5 修改hosts表

cat >> /etc/hosts << EOF
192.168.2.21 k8s-rancher
192.168.2.22 k8s-master1
192.168.2.23 k8s-node1
192.168.2.24 k8s-node2
EOF


2.6 时间同步

yum -y install ntpdate 
ntpdate time.windows.com


2.7 流量转发

# 将桥接的 IPv4 流量传递到 iptables 的链
cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
cat >> /etc/sysctl.conf<<EOF
net.ipv4.ip_forward=1
net.bridge.bridge-nf-call-iptables=1
net.ipv4.neigh.default.gc_thresh1=4096
net.ipv4.neigh.default.gc_thresh2=6144
net.ipv4.neigh.default.gc_thresh3=8192
EOF
#加载
modprobe br_netfilter
sysctl -p
sysctl --system   # 生效


3. 部署docker


安装之前确保没有其他dockers版本,如果有别的版本会有冲突,需要把原有的卸载再安装,可以参考这篇文章,卸载dockers(此处有超链接)

在4台服务器即所有节点上部署。

# 下载docker的yum源
wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo 
# 安装docker,找上一步的yum源去安装
yum  -y install docker-ce-20.10.12-3.el7
# 开机自启动并且启动docker
systemctl enable docker && systemctl start docker 
# 查看docker版本
docker --version
# 设置docker拉取镜像的加速器
cat > /etc/docker/daemon.json << EOF 
{
 "registry-mirrors": ["https://b9pmyelo.mirror.aliyuncs.com"] 
}
EOF
# 重启docker
systemctl daemon-reload
systemctl restart docker


4. 部署rancher


在k8s-rancher服务器上部署rancher,这里部署的是2.6版本

docker run -d --restart=unless-stopped -p 8080:80 -p 8443:443 --privileged rancher/rancher:v2.6.3


5. 配置rancher


完成后,访问https://<部署主机的ip>:8443 ,进入rancher管理页面。

0c5da0b3b95d4dce90ec119c417da426.png

可以看到rancher的引导信息,提示需要进行如下操作,按照提示操作即可

# 找到容器ID
docker ps
# 找到容器对应的密码
docker logs  ${container-id}  2>&1 | grep "Bootstrap Password:"

a284a2cdaf4840ec96e6a57f61cbcebb.png

将密码输入到对话框里,点击“Log in with Local User”。

在下表面的页面填写好新密码和Server URL,然后点击Continue。

注意:

密码至少12位

Server URL一定要填写IP地址

574ab374a3104bb88e8edf57566803b9.png

可以在左侧设置语言

bffc003aea7c430e83f0da7d983d8e77.png


6. 创建k8s集群


点击创建

f158093ee6784099a45302064c8d4989.png

选择自定义

1d8282cdd850436f93379b34d9eeca00.png

输入集群名字,选择版本

93f1b28784a84b488174cf406ddec4db.png

在“Advanced Options”中进行高级设置,比如:选择是否启用Nginx Ingress,我这里没有选择没有开启。这个设置项后续可以点击rancher界面中此集群的升级按钮进行重新选择。

758b5f2baca546b1833d052b8abd5c5d.png

点击“Next”后,进入添加主机命令页面

0ac0eb7fa93e4973b5cabf04ecef083c.png

点选Etcd,Control Plan两个选项,最好把Worker选项也选上,然后复制下方的命令,到master1节点执行,这里没有选择Worker。如果部署的是多个master节点的集群,只要把对应的命令在每一台master节点上执行就可以。

点选Worker选项,然后复制下方的命令,到2个node节点执行。

46a9b422fa394012823b4aceca5d8045.png

当集群前面的状态变成Active时,就表示集群部署完成。

4ee7179a5470418ea6cc0561527badc0.png

可以点击集群的名称,进入集群详情页

650d7b32cb7f459eb177fe1b7d2cfc4f.png

点击箭头处的标识,可以下载集群的配置文件保存。

在k8s-rancher服务器上创建文件夹.kube,并在此文件夹下创建config文件,将下载的配置文件内容复制进去,保存退出,

e5a3e7a53dfa4319a0ddc07795d3191e.png

然后在k8s-rancher服务器部署kubectl命令,就可以通过kubectl命令控制集群了。

cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
yum install -y kubectl


查看节点状态

kubectl get nodes


661cb4e775e34a1da61e90159b149d4a.png

到这里,rancher部署单master节点的k8s集群就完成了。整体下来给我的感觉就是方便,不用再修改配置文件,也不用再去找错误了,大大的缩短了部署集群的时间。在可视化平台上只需要点一点,集群就轻松部署完成了非常方便。

相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。 &nbsp; &nbsp; 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
4月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
ACK One 的多集群应用分发,可以最小成本地结合您已有的单集群 CD 系统,无需对原先应用资源 YAML 进行修改,即可快速构建成多集群的 CD 系统,并同时获得强大的多集群资源调度和分发的能力。
169 9
|
4月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
本文介绍如何利用阿里云的分布式云容器平台ACK One的多集群应用分发功能,结合云效CD能力,快速将单集群CD系统升级为多集群CD系统。通过增加分发策略(PropagationPolicy)和差异化策略(OverridePolicy),并修改单集群kubeconfig为舰队kubeconfig,可实现无损改造。该方案具备多地域多集群智能资源调度、重调度及故障迁移等能力,帮助用户提升业务效率与可靠性。
|
1月前
|
运维 Dubbo Cloud Native
Dubbo 云原生重构出击:更快部署、更强控制台、更智能运维
Apache Dubbo 最新升级支持云原生,提供一键部署微服务集群与全新可视化控制台,提升全生命周期管理体验,助力企业高效构建云原生应用。
230 25
|
3月前
|
Cloud Native 关系型数据库 分布式数据库
客户说|知乎基于阿里云PolarDB,实现最大数据库集群云原生升级
近日,知乎最大的风控业务数据库集群,基于阿里云瑶池数据库完成了云原生技术架构的升级。此次升级不仅显著提升了系统的高可用性和性能上限,还大幅降低了底层资源成本。
|
5月前
|
Cloud Native 关系型数据库 分布式数据库
登顶TPC-C|云原生数据库PolarDB技术揭秘:Limitless集群和分布式扩展篇
云原生数据库PolarDB技术揭秘:Limitless集群和分布式扩展篇
|
6月前
|
存储 Kubernetes 监控
K8s集群实战:使用kubeadm和kuboard部署Kubernetes集群
总之,使用kubeadm和kuboard部署K8s集群就像回归童年一样,简单又有趣。不要忘记,技术是为人服务的,用K8s集群操控云端资源,我们不过是想在复杂的世界找寻简单。尽管部署过程可能遇到困难,但朝着简化复杂的目标,我们就能找到意义和乐趣。希望你也能利用这些工具,找到你的乐趣,满足你的需求。
629 33
|
6月前
|
Kubernetes 开发者 Docker
集群部署:使用Rancher部署Kubernetes集群。
以上就是使用 Rancher 部署 Kubernetes 集群的流程。使用 Rancher 和 Kubernetes,开发者可以受益于灵活性和可扩展性,允许他们在多种环境中运行多种应用,同时利用自动化工具使工作负载更加高效。
364 19
|
5月前
|
运维 Cloud Native 测试技术
极氪汽车云原生架构落地实践
随着极氪数字业务的飞速发展,背后的 IT 技术也在不断更新迭代。极氪极为重视客户对服务的体验,并将系统稳定性、业务功能的迭代效率、问题的快速定位和解决视为构建核心竞争力的基石。
|
9月前
|
运维 Cloud Native 持续交付
深入理解云原生架构及其在现代企业中的应用
随着数字化转型的浪潮席卷全球,企业正面临着前所未有的挑战与机遇。云计算技术的迅猛发展,特别是云原生架构的兴起,正在重塑企业的IT基础设施和软件开发模式。本文将深入探讨云原生的核心概念、关键技术以及如何在企业中实施云原生策略,以实现更高效的资源利用和更快的市场响应速度。通过分析云原生架构的优势和面临的挑战,我们将揭示它如何助力企业在激烈的市场竞争中保持领先地位。
218 13
|
4月前
|
人工智能 Cloud Native 容灾
深圳农商银行三代核心系统全面投产 以云原生架构筑牢数字化转型基石
深圳农商银行完成第三代核心系统全面上云,日均交易超3000万笔,峰值处理效率提升2倍以上。扎根深圳70余年,与阿里云共建“两地三中心”分布式云平台,实现高可用体系及全栈护航。此次云原生转型为行业提供可复制样本,未来将深化云计算与AI合作,推动普惠金融服务升级。
370 17

推荐镜像

更多