【云原生】Rancher部署k8s集群流程—2023.03

简介: 【云原生】Rancher部署k8s集群流程—2023.03

整体思路:

首先,准备好4台服务器,并且固定好IP;其次将4台服务器初始化,并在4台服务器上安装docker;然后在rancher节点的服务器上安装rancher,安装成功过后就可以通过IP+端口号访问rancher页面进行可视化操作了;最后在rancher节点服务器上创建配置文件,部署kubectl,就可以通过rancher节点控制整个集群了。


1. 准备工作


准备了4台机器,一台rancher,一台master,2台node,固定好IP,可以参考这篇文章,帮助您固定虚拟机IP(此处有超链接)

主机名称 IP 部署内容 组件
k8s-rancher 192.168.2.21 rancher docker\rancher\kubectl
k8s-master1 192.168.2.22 master1 docker
k8s-node1 192.168.2.23 node1 docker
k8s-node2 192.168.2.24 node2 docker


2. 初始化操作


2.1 关闭防火墙

systemctl disable firewalld  #永久关闭,移除开机自启项,以后开机不会启动
systemctl stop firewalld  #临时关闭,立刻关闭


2.2 关闭selinux

sed -i 's/enforcing/disabled/' /etc/selinux/config   # 修改selinux配置文件为关闭状态,以后开机不会启动
setenforce 0   #临时关闭,立刻关闭


2.3 关闭swap分区

sed -ri 's/.*swap.*/#&/' /etc/fstab  # 修改swap配置文件为关闭状态,以后开机不会启动
swapoff -a  #临时关闭,立刻关闭


2.4 设置主机名

hostnamectl set-hostname <设定的主机名称>
bash   # 刷新


2.5 修改hosts表

cat >> /etc/hosts << EOF
192.168.2.21 k8s-rancher
192.168.2.22 k8s-master1
192.168.2.23 k8s-node1
192.168.2.24 k8s-node2
EOF


2.6 时间同步

yum -y install ntpdate 
ntpdate time.windows.com


2.7 流量转发

# 将桥接的 IPv4 流量传递到 iptables 的链
cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
cat >> /etc/sysctl.conf<<EOF
net.ipv4.ip_forward=1
net.bridge.bridge-nf-call-iptables=1
net.ipv4.neigh.default.gc_thresh1=4096
net.ipv4.neigh.default.gc_thresh2=6144
net.ipv4.neigh.default.gc_thresh3=8192
EOF
#加载
modprobe br_netfilter
sysctl -p
sysctl --system   # 生效


3. 部署docker


安装之前确保没有其他dockers版本,如果有别的版本会有冲突,需要把原有的卸载再安装,可以参考这篇文章,卸载dockers(此处有超链接)

在4台服务器即所有节点上部署。

# 下载docker的yum源
wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo 
# 安装docker,找上一步的yum源去安装
yum  -y install docker-ce-20.10.12-3.el7
# 开机自启动并且启动docker
systemctl enable docker && systemctl start docker 
# 查看docker版本
docker --version
# 设置docker拉取镜像的加速器
cat > /etc/docker/daemon.json << EOF 
{
 "registry-mirrors": ["https://b9pmyelo.mirror.aliyuncs.com"] 
}
EOF
# 重启docker
systemctl daemon-reload
systemctl restart docker


4. 部署rancher


在k8s-rancher服务器上部署rancher,这里部署的是2.6版本

docker run -d --restart=unless-stopped -p 8080:80 -p 8443:443 --privileged rancher/rancher:v2.6.3


5. 配置rancher


完成后,访问https://<部署主机的ip>:8443 ,进入rancher管理页面。

0c5da0b3b95d4dce90ec119c417da426.png

可以看到rancher的引导信息,提示需要进行如下操作,按照提示操作即可

# 找到容器ID
docker ps
# 找到容器对应的密码
docker logs  ${container-id}  2>&1 | grep "Bootstrap Password:"

a284a2cdaf4840ec96e6a57f61cbcebb.png

将密码输入到对话框里,点击“Log in with Local User”。

在下表面的页面填写好新密码和Server URL,然后点击Continue。

注意:

密码至少12位

Server URL一定要填写IP地址

574ab374a3104bb88e8edf57566803b9.png

可以在左侧设置语言

bffc003aea7c430e83f0da7d983d8e77.png


6. 创建k8s集群


点击创建

f158093ee6784099a45302064c8d4989.png

选择自定义

1d8282cdd850436f93379b34d9eeca00.png

输入集群名字,选择版本

93f1b28784a84b488174cf406ddec4db.png

在“Advanced Options”中进行高级设置,比如:选择是否启用Nginx Ingress,我这里没有选择没有开启。这个设置项后续可以点击rancher界面中此集群的升级按钮进行重新选择。

758b5f2baca546b1833d052b8abd5c5d.png

点击“Next”后,进入添加主机命令页面

0ac0eb7fa93e4973b5cabf04ecef083c.png

点选Etcd,Control Plan两个选项,最好把Worker选项也选上,然后复制下方的命令,到master1节点执行,这里没有选择Worker。如果部署的是多个master节点的集群,只要把对应的命令在每一台master节点上执行就可以。

点选Worker选项,然后复制下方的命令,到2个node节点执行。

46a9b422fa394012823b4aceca5d8045.png

当集群前面的状态变成Active时,就表示集群部署完成。

4ee7179a5470418ea6cc0561527badc0.png

可以点击集群的名称,进入集群详情页

650d7b32cb7f459eb177fe1b7d2cfc4f.png

点击箭头处的标识,可以下载集群的配置文件保存。

在k8s-rancher服务器上创建文件夹.kube,并在此文件夹下创建config文件,将下载的配置文件内容复制进去,保存退出,

e5a3e7a53dfa4319a0ddc07795d3191e.png

然后在k8s-rancher服务器部署kubectl命令,就可以通过kubectl命令控制集群了。

cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
yum install -y kubectl


查看节点状态

kubectl get nodes


661cb4e775e34a1da61e90159b149d4a.png

到这里,rancher部署单master节点的k8s集群就完成了。整体下来给我的感觉就是方便,不用再修改配置文件,也不用再去找错误了,大大的缩短了部署集群的时间。在可视化平台上只需要点一点,集群就轻松部署完成了非常方便。

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
7天前
|
Cloud Native Serverless 数据中心
阿里云ACK One:注册集群支持ACS算力——云原生时代的计算新引擎
ACK One注册集群已正式支持ACS(容器计算服务)算力,为企业的容器化工作负载提供更多选择和更强大的计算能力。
|
1月前
|
缓存 容灾 网络协议
ACK One多集群网关:实现高效容灾方案
ACK One多集群网关可以帮助您快速构建同城跨AZ多活容灾系统、混合云同城跨AZ多活容灾系统,以及异地容灾系统。
|
2月前
|
Kubernetes Ubuntu 网络安全
ubuntu使用kubeadm搭建k8s集群
通过以上步骤,您可以在 Ubuntu 系统上使用 kubeadm 成功搭建一个 Kubernetes 集群。本文详细介绍了从环境准备、安装 Kubernetes 组件、初始化集群到管理和使用集群的完整过程,希望对您有所帮助。在实际应用中,您可以根据具体需求调整配置,进一步优化集群性能和安全性。
148 12
|
2月前
|
Prometheus Kubernetes 监控
OpenAI故障复盘 - 阿里云容器服务与可观测产品如何保障大规模K8s集群稳定性
聚焦近日OpenAI的大规模K8s集群故障,介绍阿里云容器服务与可观测团队在大规模K8s场景下我们的建设与沉淀。以及分享对类似故障问题的应对方案:包括在K8s和Prometheus的高可用架构设计方面、事前事后的稳定性保障体系方面。
|
2月前
|
Kubernetes 网络协议 应用服务中间件
Kubernetes Ingress:灵活的集群外部网络访问的利器
《Kubernetes Ingress:集群外部访问的利器-打造灵活的集群网络》介绍了如何通过Ingress实现Kubernetes集群的外部访问。前提条件是已拥有Kubernetes集群并安装了kubectl工具。文章详细讲解了Ingress的基本组成(Ingress Controller和资源对象),选择合适的版本,以及具体的安装步骤,如下载配置文件、部署Nginx Ingress Controller等。此外,还提供了常见问题的解决方案,例如镜像下载失败的应对措施。最后,通过部署示例应用展示了Ingress的实际使用方法。
87 2
|
2月前
|
存储 Kubernetes 开发者
容器化时代的领航者:Docker 和 Kubernetes 云原生时代的黄金搭档
Docker 是一种开源的应用容器引擎,允许开发者将应用程序及其依赖打包成可移植的镜像,并在任何支持 Docker 的平台上运行。其核心概念包括镜像、容器和仓库。镜像是只读的文件系统,容器是镜像的运行实例,仓库用于存储和分发镜像。Kubernetes(k8s)则是容器集群管理系统,提供自动化部署、扩展和维护等功能,支持服务发现、负载均衡、自动伸缩等特性。两者结合使用,可以实现高效的容器化应用管理和运维。Docker 主要用于单主机上的容器管理,而 Kubernetes 则专注于跨多主机的容器编排与调度。尽管 k8s 逐渐减少了对 Docker 作为容器运行时的支持,但 Doc
178 5
容器化时代的领航者:Docker 和 Kubernetes 云原生时代的黄金搭档
|
2月前
|
人工智能 缓存 异构计算
云原生AI加速生成式人工智能应用的部署构建
本文探讨了云原生技术背景下,尤其是Kubernetes和容器技术的发展,对模型推理服务带来的挑战与优化策略。文中详细介绍了Knative的弹性扩展机制,包括HPA和CronHPA,以及针对传统弹性扩展“滞后”问题提出的AHPA(高级弹性预测)。此外,文章重点介绍了Fluid项目,它通过分布式缓存优化了模型加载的I/O操作,显著缩短了推理服务的冷启动时间,特别是在处理大规模并发请求时表现出色。通过实际案例,展示了Fluid在vLLM和Qwen模型推理中的应用效果,证明了其在提高模型推理效率和响应速度方面的优势。
云原生AI加速生成式人工智能应用的部署构建
|
2月前
|
存储 Kubernetes 关系型数据库
阿里云ACK备份中心,K8s集群业务应用数据的一站式灾备方案
本文源自2024云栖大会苏雅诗的演讲,探讨了K8s集群业务为何需要灾备及其重要性。文中强调了集群与业务高可用配置对稳定性的重要性,并指出人为误操作等风险,建议实施周期性和特定情况下的灾备措施。针对容器化业务,提出了灾备的新特性与需求,包括工作负载为核心、云资源信息的备份,以及有状态应用的数据保护。介绍了ACK推出的备份中心解决方案,支持命名空间、标签、资源类型等维度的备份,并具备存储卷数据保护功能,能够满足GitOps流程企业的特定需求。此外,还详细描述了备份中心的使用流程、控制台展示、灾备难点及解决方案等内容,展示了备份中心如何有效应对K8s集群资源和存储卷数据的灾备挑战。
|
3月前
|
Kubernetes Cloud Native 微服务
云原生入门与实践:Kubernetes的简易部署
云原生技术正改变着现代应用的开发和部署方式。本文将引导你了解云原生的基础概念,并重点介绍如何使用Kubernetes进行容器编排。我们将通过一个简易的示例来展示如何快速启动一个Kubernetes集群,并在其上运行一个简单的应用。无论你是云原生新手还是希望扩展现有知识,本文都将为你提供实用的信息和启发性的见解。
|
3月前
|
敏捷开发 Kubernetes Cloud Native
阿里云云原生技术为企业提供了一套高效、灵活的解决方案,支持跨云部署与管理
在多云环境中,阿里云云原生技术为企业提供了一套高效、灵活的解决方案,支持跨云部署与管理。通过容器化、服务网格等技术,实现了应用的一致性与可移植性,简化了多云环境下的资源管理和服务治理,帮助企业应对复杂的云环境挑战,加速数字化转型。
92 5