Kubernetes-使用rancher搭建Kubernetes高可用集群

简介: 引言  之前我写了一篇文章介绍了离线部署Kubernetes 1.9.0,当时搭建的是1+3模式,此种模式不适合用于生产,为了防止由于master节点宕机造成集群不能正常工作的问题,推荐搭建Kubernetes高可用集群,本篇文章将介绍如何使用rancher搭建Kubernetes高可用集群。

引言


  之前我写了一篇文章介绍了离线部署Kubernetes 1.9.0,当时搭建的是1+3模式,此种模式不适合用于生产,为了防止由于master节点宕机造成集群不能正常工作的问题,推荐搭建Kubernetes高可用集群,本篇文章将介绍如何使用rancher搭建Kubernetes高可用集群。

准备工作


  1. 集群机器

首先准备搭建集群环境的机器,笔者准备的集群机器如下:

Hostname IP Memory OS Role
k8smaster1 192.168.246.128 6G CentOS 7.5 Kubernetes master 节点
k8smaster2 192.168.246.129 6G CentOS 7.5 Kubernetes master 节点
k8smaster3 192.168.246.130 6G CentOS 7.5 Kubernetes master 节点
k8sworker1 192.168.246.131 12G CentOS 7.5 Kubernetes node 节点
k8sworker2 192.168.246.132 12G CentOS 7.5 Kubernetes node 节点
k8sworker3 192.168.246.133 12G CentOS 7.5 Kubernetes node 节点
k8sworker4 192.168.246.134 12G CentOS 7.5 Kubernetes node 节点
k8sworker5 192.168.246.135 12G CentOS 7.5 Kubernetes node 节点
  1. 软件版本
    2.1 rancher
    截止写这篇文章时,rancher的最新版本是v2.0.8,所以我使用的v2.0.8的稳定版,这里还要关注一下v2.0.8版本对软硬件的要求,在GitHub上可以看到对于环境的最低要求:
  • 操作系统
    Ubuntu 16.04 (64-bit)
    Red Hat Enterprise Linux 7.5 (64-bit)
    RancherOS 1.3 (64-bit)
  • 硬件
    至少4 GB内存
  • 软件
    Docker版本:v1.12.6, 1.13.1, 17.03.2

2.2 Kubernetes
Kubernetes的版本需要根据rancher来定,在rancher v2.0.8 release notes中说明了推荐使用1.11.2版本的Kubernetes;

img_203698f67999022ffab41a1a7d90fffd.png
rancher release notes

2.3 Docker
Docker的版本需要根据Kubernetes来定,在Kubernetes 1.11 change log中描述如下,和1.10版本一样,经过验证的Docker版本有1.11.2 至 1.13.1 和 17.03.x;

img_3ad6c8fcd993a94f9e7fafd6f2deba8b.png
Kubernetes change log
  1. 环境配置
    3.1 修改每台机器的【/etc/hosts】文件,增加以下解析:
192.168.246.128 k8smaster1
192.168.246.129 k8smaster2
192.168.246.130 k8smaster3
192.168.246.131 k8sworker1
192.168.246.132 k8sworker2
192.168.246.133 k8sworker3
192.168.246.134 k8sworker4
192.168.246.135 k8sworker5

3.2 关闭所有机器的安全加强系统SELinux,使容器能够访问到宿主机文件系统

vim /etc/selinux/config

将【SELINUX】设置为【disabled】

img_3dfbf4cd39340de21f91c93070827675.png
关闭selinux.png

临时关闭SELinux

setenforce 0

3.3 关闭虚拟内存
修改配置文件【/etc/fstab】

vim /etc/fstab

  注释掉swap那一行

img_3d2b6b7a21b505173865232079255e41.png
image.png

  然后通过命令临时关闭虚拟内存

swapoff -a

关于不关闭虚拟内存会出现的问题我在离线部署Kubernetes 1.9.0已经注明;
3.4 设置防火墙
  如果是做测试用,可以直接关掉防火墙,但是如果是用于生产环境,还是老老实实的去设置需要开发的端口吧,运行以下命令关闭防火墙

systemctl stop firewalld.service && systemctl disable firewalld.service

3.5 安装docker
选择docker版本【docker 17.03.2-ce】,安装步骤参考这里,或者也可以选择直接运行下面的命令

mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.bak
curl -o /etc/yum.repos.d/CentOS-Base-Ali.repo http://mirrors.aliyun.com/repo/Centos-7.repo
curl -o /etc/yum.repos.d/CentOS-Base-163.repo https://mirrors.163.com/.help/CentOS7-Base-163.repo
curl -o /etc/yum.repos.d/Docker-ce-Ali.repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum makecache
yum install --setopt=obsoletes=0 docker-ce-17.03.2.ce-1.el7.centos docker-ce-selinux-17.03.2.ce-1.el7.centos.noarch -y
systemctl enable docker.service && systemctl start docker.service

部署rancher


  rancher的部署有两种方式,分别是单点部署和高可用部署,由于本文的重点在于如何使用rancher搭建Kubernetes高可用集群,所以本文使用rancher的单点部署方式,至于rancher的高可用部署,以后再写文章补充。
选择一个节点(我选择的是k8smaster1节点)运行如下命令安装单节点rancher:

docker run -d --restart=unless-stopped -p 80:80 -p 443:443 rancher/rancher:stable

安装完成后运行【docker ps】会看到有一个rancher的容器

img_77fe3e262588d3c53b9996f05d2a386d.png
install rancher

现在通过浏览器访问【https://192.168.246.128/】会发现跳转到了【https://192.168.246.128/update-password】,让我们为admin用户设置一个密码:

img_775c6eee38d9aed7bf37f305c7244623.png
update password

接着设置访问rancher的URL,需要能够被所有的节点访问到,这里你可以设置成【rancher.{domain.com}】:

img_978d4841e63b93086b5cc1119ed57d8c.png
set URL

设置完成后点击【Save URL】,然后就进入添加集群的页面了

img_440a9bceeecffcbb7a3a82663cacc490.png
add cluster

点击【Add Cluster】添加集群,选择【CUSTOM】:

img_a24641f730607ead7e467704aa840890.png
Select custom

填写集群名称,然后展开【Cluster Options】,设置集群配置,网络提供者选择Flannel

img_3af64ae72a24567539d3cf35cdbfa452.png
Cluster Options

设置完成后点击【Next】按钮,就可以看到添加Node命令的界面了,根据节点的角色进行选择,我的主节点的角色选择是etcd+Control Plane,工作节点的角色选择是Worker,选择完后就会看到下面生成的命令,将命令Copy到相应的节点运行就可以了

img_45560e74e47f947ceb4152de9fc252dd.png
Select Node Role

然后点到【Cluster】就会看到集群正在准备环境(Provisioning),你现在要做的就是等待

img_ee2400be326b1ccace745e69a4939c6b.png
Provisioning

等到所有的节点都添加完成之后就能看到集群的状态已经变成【Active】了,然后就可以部署你的应用了。

相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。     相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
目录
相关文章
|
12天前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
89 1
|
18天前
|
弹性计算 监控 调度
ACK One 注册集群云端节点池升级:IDC 集群一键接入云端 GPU 算力,接入效率提升 80%
ACK One注册集群节点池实现“一键接入”,免去手动编写脚本与GPU驱动安装,支持自动扩缩容与多场景调度,大幅提升K8s集群管理效率。
174 89
|
6月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
ACK One 的多集群应用分发,可以最小成本地结合您已有的单集群 CD 系统,无需对原先应用资源 YAML 进行修改,即可快速构建成多集群的 CD 系统,并同时获得强大的多集群资源调度和分发的能力。
232 9
|
6月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
本文介绍如何利用阿里云的分布式云容器平台ACK One的多集群应用分发功能,结合云效CD能力,快速将单集群CD系统升级为多集群CD系统。通过增加分发策略(PropagationPolicy)和差异化策略(OverridePolicy),并修改单集群kubeconfig为舰队kubeconfig,可实现无损改造。该方案具备多地域多集群智能资源调度、重调度及故障迁移等能力,帮助用户提升业务效率与可靠性。
|
8月前
|
存储 Kubernetes 监控
K8s集群实战:使用kubeadm和kuboard部署Kubernetes集群
总之,使用kubeadm和kuboard部署K8s集群就像回归童年一样,简单又有趣。不要忘记,技术是为人服务的,用K8s集群操控云端资源,我们不过是想在复杂的世界找寻简单。尽管部署过程可能遇到困难,但朝着简化复杂的目标,我们就能找到意义和乐趣。希望你也能利用这些工具,找到你的乐趣,满足你的需求。
711 33
|
8月前
|
Kubernetes 开发者 Docker
集群部署:使用Rancher部署Kubernetes集群。
以上就是使用 Rancher 部署 Kubernetes 集群的流程。使用 Rancher 和 Kubernetes,开发者可以受益于灵活性和可扩展性,允许他们在多种环境中运行多种应用,同时利用自动化工具使工作负载更加高效。
408 19
|
8月前
|
人工智能 分布式计算 调度
打破资源边界、告别资源浪费:ACK One 多集群Spark和AI作业调度
ACK One多集群Spark作业调度,可以帮助您在不影响集群中正在运行的在线业务的前提下,打破资源边界,根据各集群实际剩余资源来进行调度,最大化您多集群中闲置资源的利用率。
|
8月前
|
Prometheus Kubernetes 监控
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
248 0
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
|
9月前
|
运维 分布式计算 Kubernetes
ACK One多集群Service帮助大批量应用跨集群无缝迁移
ACK One多集群Service可以帮助您,在无需关注服务间的依赖,和最小化迁移风险的前提下,完成跨集群无缝迁移大批量应用。
|
11月前
|
Prometheus Kubernetes 监控
OpenAI故障复盘 - 阿里云容器服务与可观测产品如何保障大规模K8s集群稳定性
聚焦近日OpenAI的大规模K8s集群故障,介绍阿里云容器服务与可观测团队在大规模K8s场景下我们的建设与沉淀。以及分享对类似故障问题的应对方案:包括在K8s和Prometheus的高可用架构设计方面、事前事后的稳定性保障体系方面。

热门文章

最新文章

推荐镜像

更多
下一篇
开通oss服务