开发者社区> 牧小农> 正文
阿里云
为了无法计算的价值
打开APP
阿里云APP内打开

这一篇 K8S(Kubernetes)集群部署 我觉得还可以(2)

简介: 这一篇 K8S(Kubernetes)集群部署 我觉得还可以
+关注继续查看

安装kubeadm


kubeadm是K8S官方提供的集群部署工具,通过这个工具可以快速帮助我们简化的完成K8S的管理,以及各集群节点下的容器创建


切换目录: cd /usr/local/k8s/kubernetes-1.14

解压 kube114安装包: tar -zxvf kube114-rpm.tar.gz

切换目录: cd kube114-rpm


屏幕快照 2022-05-11 上午11.57.19.png


关闭交换区


在linux系统中,交换区类似于我们的 windows的虚拟内存,作为windows的虚拟内存,其实就是用物理磁盘模拟内存.

比如说我们系统内存比较小,那么在进行数据处理的时候,内存不够了,我们就会先把这些数据寄存在硬盘上,用硬盘空间模拟内存来使用,虽然硬盘提取数据的速度比较慢,但是总是比内存不够要好,在linux系统中,交换区就是我们所说的虚拟内存了.

在这里,虚拟内存可能会对系统部署产生不必要的影响,在K8S的环境下,使用的服务器一般都是内存比较充足的,所以我们一般不推荐使用系统交换区,这样会让我们系统的性能降低,在这里选择关闭交换区

关闭交换区:swapoff -a


修改配置文件,永久关闭交换区:vi /etc/fstab

swap一行注释


屏幕快照 2022-05-11 上午11.57.51.png

配置网桥


所谓配置网桥其实就是我们对k8s.conf这个文件进行修改

iptables 是在linux中的一个网络工具,用来对我们包按照规则进行过滤,在k8s.conf中增加下面两行配置当在K8S容器间进行网络通信的时候,当网桥进行数据传输的时候,也要遵循iptables的规则,进行相应的处理,这样可以提高我们系统在网络传输间的安全性


开启方式:


cat <<EOF >  /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sysctl --system

屏幕快照 2022-05-11 上午11.58.09.png



当我们执行完成以后,要确保红框中的值为1


通过镜像安装K8S


切换目录: cd /usr/local/k8s/kubernetes-1.14

加载本地镜像—k8s: docker load -i k8s-114-images.tar.gz


加载完成后查看:docker images


[root@master kubernetes-1.14]# docker images
REPOSITORY                           TAG       IMAGE ID       CREATED       SIZE
k8s.gcr.io/kube-proxy                v1.14.1   20a2d7035165   2 years ago   82.1MB
k8s.gcr.io/kube-apiserver            v1.14.1   cfaa4ad74c37   2 years ago   210MB
k8s.gcr.io/kube-controller-manager   v1.14.1   efb3887b411d   2 years ago   158MB
k8s.gcr.io/kube-scheduler            v1.14.1   8931473d5bdb   2 years ago   81.6MB
k8s.gcr.io/coredns                   1.3.1     eb516548c180   2 years ago   40.3MB
k8s.gcr.io/etcd                      3.3.10    2c4adeb21b4f   2 years ago   258MB
k8s.gcr.io/pause                     3.1       da86e6ba6ca1   3 years ago   742kB


如果看过我上一篇K8S入门的同学,应该很熟悉这些东西,这里就不做详细介绍了,感兴趣的可以去看一看

这一篇 K8S(Kubernetes)我觉得可以了解一下!!!


加载本地镜像—对集群可视化: docker load -i flannel-dashboard.tar.gz


同样我们也可以使用docker images进行查看


屏幕快照 2022-05-11 上午11.58.45.png

到这里我们K8S的前置工作已经完成了,但是我们今天安装的集群环境,所以上面的步骤,在其他两台机器中也要进行安装,当我们安装好了之后,其他的两台机器使用docker images,也能 出现上面的信息表示我们安装完成,这里我们就不做重复的工作了,大家可以自行安装好


使用Kubeadm部署K8S集群


master 主服务配置


下面的步骤我们都是在 129(master) 这台服务器上执行的,请大家注意!!!


master主服务器配置:kubeadm init --kubernetes-version=v1.14.1 --pod-network-cidr=10.244.0.0/16

versioin:版本

cidr:Ip范围必须在10.244之内

安装成功之后我们可以看到下面的信息:


屏幕快照 2022-05-11 上午11.59.00.png

第一步:


这三行命令需要我们复制以后手动去运行


mkdir -p $HOME/.kube  ## 表示需要我们创建一个.kube目录
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config  ##将admin.conf 复制到config中
  sudo chown $(id -u):$(id -g) $HOME/.kube/config  ## 进行授权操作


admin.conf 是kubeadm有关于当前集群的核心配置文件,包含了kubeadm集群信息,也包含节点的信息,大家可以看一下

屏幕快照 2022-05-11 上午11.59.14.png

第二步:

这条命令需要我们在节点中(130、131)去运行,让我们的节点信息加入到master(129)中,我们可以先复制保存一下


kubeadm join 192.168.137.129:6443 --token lg870y.lxik26ib84938ton \
    --discovery-token-ca-cert-hash sha256:6d8331fe88ae99e89608d6dc414a9fe0a378b84ffa4044d7cacfdbbf5de41871

通过kubectl获取节点信息(包含master):kubectl get nodes

屏幕快照 2022-05-11 上午11.59.43.png


name:主机名

STATUS:状态

ROLES:角色

AGE:创建时间26分钟

VERSION:版本

从上图中我们可以看到,节点只有master,没有Node,是因为当前没有执行第二步的操作,所以当前没有节点加入到我们的master中,当时我们看到 status 是 NotReady,是没有准备好,这是为什么呢,在底层肯定是有什么组件没有正常的执行,我们可以通过下面这个命令来查看


查看存在问题的pod:kubectl get pod --all-namespaces

屏幕快照 2022-05-11 下午12.00.01.png


如果我们在状态(STATUS)中看到 CrashLoopBackOff一般重新执行几次kubectl get pod --all-namespaces命令就会没有,但是如果一直存在,表示我们硬件不够,需要增加CPU和内存资源就可以了。

我们可以前两行的是状态一直是 Pending,其他的都是Running,这是不正常的,那为什么只有前两个是这样的,后面的是好的呢,这个问题是必然会出现的。


我们可以看到 name下 有一个 coredns,它代表的是我们基础中的网络应用,这个基础的网络应用因为缺少一个额外的组件,所以无法进行安装,在这里是因为缺少 flannel网络组件,它是pod的网络组件,我们只需要通过 kubectl 进行安装就可以了


安装flannel网络组件:kubectl create -f kube-flannel.yml

屏幕快照 2022-05-11 下午12.00.25.png


node 从服务配置


还记得我们在主服务(master)初始化的时候,复制下来的第二步的命令吗,我们在node(130、131)节点中只需要执行那条命令就可以了,


PS:这条命令是由我自己的master生成的,大家需要替换成你们自己的那条命令才可以。


如果我们忘记了这条命令,我们可以通过 kubeadm token list命令去查看,然后将下方的IP地址和token替换一下就可以了,其他不用替换

image.png

kubeadm join 192.168.137.129:6443 --token lg870y.lxik26ib84938ton \
    --discovery-token-ca-cert-hash sha256:6d8331fe88ae99e89608d6dc414a9fe0a378b84ffa4044d7cacfdbbf5de41871

通过kubectl获取节点信息(包含master):kubectl get nodes


image.png

然后我们就可以看到,两个节点已经加入进来了


重新启动服务


重启docker:systemctl restart docker

重启kubelet:systemctl restart kubelet

设置开机启动:systemctl enablekubelet


kubeadm/kubelet/kubectl区别

kubeadm:是kubernetes集群快速构建工具

kubelet 运行在所有节点上,负责启动Pod和容器,以系统服务形式出现

kubectl:kubectl是kubernetes命令行工具,提供指令


小结


到这里K8S的集群服务就讲完了,其实本身安装K8S并不复杂,但是你架不住里面有许多许多的坑,大家可能看到我安装的比较顺利,但是小农也是躺了很多坑,这篇文章才呈现给大家的,如果觉得文章对你有帮助的,记得点赞关注,你的支持我创作的最大动力。


如果有疑问或者不懂的地方,欢迎在下面留言,小农看到了,会第一时间回复大家。


怕什么真理无穷,进一步 有进一步的欢喜,大家加油~


版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
kubernetes部署sekiro集群
kubernetes部署sekiro集群
73 0
3. Kubernetes集群安装
整了两天, 虚拟机才在我的mac上顺利跑起来.
50 0
Kubernetes 集群基本概念
Kubernetes 集群基本概念
117 0
Kubernetes(二) - 使用Rancher部署K8S集群(搭建Rancher)
众所周知Kubernetres虽然很好但是安装部署很复杂, Rancher功能很强大,我们这里仅仅使用Rancher来搭建管理Kubernetes集群
1733 0
Kubernetes集群的详细部署
一、集群机器 linux-node1:192.168.56.11 ---master 部署的服务: etcd kube-apiserver kube-controller-manager kube-scheduler docker linux-node2:192.
1193 0
k8s与CICD--利用helm部署应用到kubernetes
前言 本小节应该是这个系列剩下的两个小节之一了。剩下一个是之前承诺好的drone-wechart插件。本节主要介绍利用helm部署应用到kubernetes中。 至于helm,详细可以参考FreeWheel Lead Engineer 张夏写的一系列文章。
2351 0
Kubernetes集群安装文档-v1.6版本
本文创作与2017年4月,文中有很多错误和模糊的地方在很长的时间内没有在此修正。以下内容都已迁移到了 kubernete-handbook(http://jimmysong.io/kubernetes-handbook)的“最佳实践”章节中,请以 kubernetes-handbook 中的内容为准,本书托管在 GitHub 上,地址 https://github.com/rootsongjc/kubernetes-handbook。
1431 0
+关注
牧小农
业精于勤荒于嬉,行成于思毁于随。
134
文章
0
问答
文章排行榜
最热
最新
相关电子书
更多
低代码开发师(初级)实战教程
立即下载
阿里巴巴DevOps 最佳实践手册
立即下载
冬季实战营第三期:MySQL数据库进阶实战
立即下载