Kubernetes----Kubernetes集群环境搭建

简介: Kubernetes----Kubernetes集群环境搭建

一、安装简介

1.1 集群类型

  • 一主多从:一台Master节点和多台Node节点,搭建简单,但是又单机故障风险,适合用于测试环境
  • 多主多从:多台Master节点和多台Node节点,搭建麻烦,安全性高,适合用于生产环境

在这里插入图片描述

1.2 安装方式

  • mminikube:一个用于快速搭建单节点kubernetes的工具
  • kubeadm:一个用于快速搭建kubernetes集群的工具
  • 二进制包:从官网下载每个组件的二进制包,依次去安装,安装复杂,但对于理解kubernetes组件更加有效

二、使用kubeadm工具方式安装一主两从类型的kubernetes集群

2.1 主机规划

节点 IP地址 操作系统 配置
Master 192.168.2.150 CentOS7.9 2Cpu2G内存40G硬盘
Node1 192.168.2.151 CentOS7.9 2Cpu2G内存40G硬盘
Node2 192.168.2.152 CentOS7.9 2Cpu2G内存40G硬盘

2.2 服务器初始化配置

  • (1)修改主机名
hostnamectl set-hostname master  # 在192.168.2.150上执行
hostnamectl set-hostname node1   # 在192.168.2.151上执行
hostnamectl set-hostname node2   # 在192.168.2.152上执行

修改完成后执行hostname,结果如下:
在这里插入图片描述

  • (2)查看Linux系统版本,CentOS要求版本要大于等于7.5版本

如下,均满足
在这里插入图片描述

  • (3)配置地址解析

在 /etc/hosts 文件中增加以下内容:

192.168.2.150    master
192.168.2.151    node1
192.168.2.152    node2

结果如下:
在这里插入图片描述

配置完成后,在各个节点上ping master,ping node1,ping node2均为ping通状态说明配置OK

  • (4)时间同步

在三台服务器都执行如下命令

systemctl start chronyd
systemctl enable chronyd

若未安装chrony,则使用如下命令安装

yum instal -y chrony

配置完成后使用date命令可以查看到三台服务器时间完全同步
在这里插入图片描述

  • (5)禁用IPtable和firewall(测试环境可以直接禁掉,生产环境需要慎重考虑)

在三台服务器上执行如下命令:

systemctl stop firewalld
systemctl disable firewalld

systemctl stop iptables
systemctl disable iptables
  • (6)禁用selinux

通过getenforce命令可以查看状态,默认情况下是开启的
关闭selinux需要修改文件,vi /etc/selinux/config ,然后将 SELINUX=enforcing 修改为SELINUX=disabled,如下:
在这里插入图片描述

然后需要重启系统才会生效,这里暂时先不重启,待后续都配置完成后统一重启

  • (7)禁用swap分区

在三台服务器进行编辑/etc/fstab 文件,vi /etc/fstab 然后将 /dev/mapper/centos-swap swap 这一行注释掉,如下:
在这里插入图片描述

这里也需要重启才会生效,同样暂时不重启,待最后统一重启

  • (8)修改linux内核参数

在三台服务器上创建 /etc/sysctl.d/kubernetes.conf文件,即vi /etc/sysctl.d/kubernetes.conf,文件中增加如下内容:

net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip.forward = 1

执行如下命令使上述配置生效

sysctl -p

然后执行如下命令加载一个模块

modprobe br_netfilter

通过执行如下命令来检查是否生效

lsmod | grep br_netfilter

如下,表示已经配置OK
在这里插入图片描述

  • (9)配置ipvs功能

在三台服务器上执行如下命令:

yum install -y ipset ipvsadmin

创建 /etc/sysconfig/modules/ipvs.modules 文件,即vi /etc/sysconfig/modules/ipvs.modules内容如下:

#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4

给新建文件增加可执行权限

chmod +x /etc/sysconfig/modules/ipvs.modules

然后执行上述脚本文件

bash /etc/sysconfig/modules/ipvs.modules

通过如下命令可以查看上述配置是否OK

lsmod|grep ip_vs

如下,表示都已经配置OK
在这里插入图片描述

(10)至此,三台服务器的基础配置已经配置完成,此时可以重启一下三台服务器
重启完成后,可以通过getenforce命令查看selinux是否生效,如下表示已经生效
在这里插入图片描述

然后通过 free -m查看,如下swap位置均为0表示swap分区已经成功关闭
在这里插入图片描述

2.3 安装Docker

  • (1)配置阿里云的docker镜像源
wget http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo

yum clean all
yum makecache
  • (2)查看docker的版本
yum list docker-ce --showduplicates

结果如下,这里选择20.10.9-3.el7
在这里插入图片描述

  • (3)安装docker
yum install -y --setopt=obsolutes=0 docker-ce-20.10.9-3.el7

创建docker配置文件夹

mkdir /etc/docker

创建 /etc/docker/daemon.json文件,即vi /etc/docker/daemon.json,内容如下:

{
    "exec-opts":["native.cgroupdriver=systemd"],
    "registry-mirrors":["https://ooe7wn09.mirror.aliyuncs.com"]
}

这里阿里云镜像加速地址可以通过登录阿里云平台,在【容器服务】-【容器镜像服务】-【镜像工具】-【镜像加速器】中找到自己的镜像加速地址
在这里插入图片描述

然后执行systemctl start docker 即可启动docker,使用systemctl status docker查看docker状态
如下:
在这里插入图片描述

通过docker version 可以查看docker的版本
在这里插入图片描述

至此docker安装已经完成,此时可以把docker设置为开机自启动

systemctl enable docker

2.4 安装kubernetes组件

  • (1)配置阿里云的kubernetes镜像源

vi /etc/yum.repos.d/kubernetes.repo

[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
        http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg

然后执行如下命令

yum clean all
yum makecache
  • (2)安装kubeadm,kubelet,kubectl
yum install -y --setopt=obsolutes=0 kubeadm-1.21.10-0 kubelet-1.21.10-0 kubectl-1.21.10-0
  • (3)配置kubelet配置文件

vi /etc/sysconfig/kubelet 然后编写内容如下:

KUBELET_CGROUP_ARGS="--cgroup-driver=systemd"
KUBE_PROXY_MODE="ipvs"
  • (4)设置kubelet的开机自启动
systemctl enable kubelet

2.5 安装集群

  • (1)准备集群镜像

首先通过kubeadm config images list 命令查看需要的镜像,比如这里是:

k8s.gcr.io/kube-apiserver:v1.21.10
k8s.gcr.io/kube-controller-manager:v1.21.10
k8s.gcr.io/kube-scheduler:v1.21.10
k8s.gcr.io/kube-proxy:v1.21.10
k8s.gcr.io/pause:3.4.1
k8s.gcr.io/etcd:3.4.13-0
k8s.gcr.io/coredns/coredns:v1.8.0

因为k8s官网在国外,这里需要先从阿里云上下载,然后通过修改tag值的方式改为和k8s官网一样的,然后再进行安装
在三台服务器上执行如下命令

images=(kube-apiserver:v1.21.10 kube-controller-manager:v1.21.10 kube-scheduler:v1.21.10 kube-proxy:v1.21.10 pause:3.4.1 etcd:3.4.13-0 coredns:v1.8.0)

for imageName in ${images[@]} ; do
  docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
  docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName k8s.gcr.io/$imageName
  docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
done

执行完成后通过docker images 即可查看已经下载好的docker镜像,
这里还需要执行如下命令做一次修改

docker tag k8s.gcr.io/coredns:v1.8.0 k8s.gcr.io/coredns/coredns:v1.8.0

如下所示,即已经跟k8s官网的一致了
在这里插入图片描述

  • (2)集群初始化

至此,所有上述的执行命令都是在三台服务器上执行的,这里执行集群初始化的命令注意只需要在master节点执行即可

kubeadm init --kubernetes-version=v1.21.6 --pod-network-cidr=10.244.0.0/16 --service-cidr=10.96.0.0/12 --apiserver-advertise-address=192.168.2.150

如下,表示集群初始化成功

在这里插入图片描述

根据上图提示,执行如下三条命令(注意,以下三条命令从上述回显中拷贝)

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

根据提示,如果是root用户,需要再执行如下命令(注意,同样从上述回显中拷贝)

export KUBECONFIG=/etc/kubernetes/admin.conf

此时在主节点可以查看当前集群中的节点信息,如下,此时只有master节点

[root@master ~]# kubectl get nodes
NAME     STATUS     ROLES                  AGE     VERSION
master   NotReady   control-plane,master   3m13s   v1.21.6
[root@master ~]#

然后还是根数上述回显提示,分别将如下命令(注意此命令同样也是从上述回显中拷贝)在另外两个node节点上执行

kubeadm join 192.168.2.150:6443 --token la4re6.kxloa60jkydvl8nv \
        --discovery-token-ca-cert-hash sha256:e0bfa2e1f9adf734d415567d95f97db1ec97883ffd8402712b2960cd1f30d0fc

然后回到master节点继续查询此时的节点信息,如下,此时已经有两个节点了

[root@master ~]# kubectl get nodes
NAME     STATUS     ROLES                  AGE    VERSION
master   NotReady   control-plane,master   7m7s   v1.21.6
node1    NotReady   <none>                 16s    v1.21.6
node2    NotReady   <none>                 7s     v1.21.6
[root@master ~]#

如何在node节点执行kubectl命令

如果想在node节点行执行kubectl命令,需要将master节点的 $Home/.kube 文件拷贝到node节点的home目录下
执行如下命令进行配置文件的拷贝

# 拷贝到node1节点
scp -r ~/.kube node1:~/
# 拷贝到node2节点
scp -r ~/.kube node2:~/

然后到node节点就可以执行kubectl命令了

2.6 安装网络插件

这里的操作只需要在master上操作即可
下载yml文件并使用此文件执行

wget  https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

kubectl apply -f kube-flannel.yml

稍等一会,再次在master节点上查询节点状态,如下status为Ready表示此时已经OK了

[root@master ~]# kubectl get nodes
NAME     STATUS   ROLES                  AGE   VERSION
master   Ready    control-plane,master   21m   v1.21.6
node1    Ready    <none>                 14m   v1.21.6
node2    Ready    <none>                 14m   v1.21.6
[root@master ~]#

2.7 部署Nginx服务测试集群是否已部署成功

  • (1)部署nginx

在master节点执行如下命令部署Nginx

kubectl create deployment nginx --image=nginx:1.14-alpine
  • (2)暴露端口

在master节点执行如下命令暴露80端口

kubectl expose deployment nginx --port=80 --type=NodePort
  • (3)查看服务状态

在master节点执行如下命令:

kubectl get pods
kubectl get service

执行结果如下:

[root@master ~]# kubectl get pods
NAME                     READY   STATUS    RESTARTS   AGE
nginx-65c4bffcb6-jdd64   1/1     Running   0          2m41s
[root@master ~]# kubectl get service
NAME         TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)        AGE
kubernetes   ClusterIP   10.96.0.1       <none>        443/TCP        34m
nginx        NodePort    10.97.150.219   <none>        80:30483/TCP   2m6s
[root@master ~]#

此时就可以通过master的ip加上这里的端口号30483进行访问了,如下说明k8s的集群已经部署成功并且可以使用了
在这里插入图片描述

三、安装dashboard

3.1 下载yaml文件并安装

从Kubernetes/dashboard的github地址下载yaml文件如下:
https://github.com/kubernetes/dashboard/blob/master/aio/deploy/recommended.yaml

然后编辑yaml文件,增加如下两行,即给Service设置类型为NodePort,并且设置其值为30080
在这里插入图片描述

然后使用如下命令创建

[root@master ~]# kubectl apply -f recommended.yaml
namespace/kubernetes-dashboard created
serviceaccount/kubernetes-dashboard created
service/kubernetes-dashboard created
secret/kubernetes-dashboard-certs created
secret/kubernetes-dashboard-csrf created
secret/kubernetes-dashboard-key-holder created
configmap/kubernetes-dashboard-settings created
role.rbac.authorization.k8s.io/kubernetes-dashboard created
clusterrole.rbac.authorization.k8s.io/kubernetes-dashboard created
rolebinding.rbac.authorization.k8s.io/kubernetes-dashboard created
clusterrolebinding.rbac.authorization.k8s.io/kubernetes-dashboard created
deployment.apps/kubernetes-dashboard created
service/dashboard-metrics-scraper created
deployment.apps/dashboard-metrics-scraper created
[root@master ~]#

如下命令即查看pod和service已经启动OK了

[root@master ~]# kubectl get pod,svc -n kubernetes-dashboard
NAME                                            READY   STATUS    RESTARTS   AGE
pod/dashboard-metrics-scraper-c45b7869d-n67mp   1/1     Running   0          95s
pod/kubernetes-dashboard-79b5779bf4-6srmq       1/1     Running   0          95s

NAME                                TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)         AGE
service/dashboard-metrics-scraper   ClusterIP   10.96.75.37     <none>        8000/TCP        95s
service/kubernetes-dashboard        NodePort    10.109.128.90   <none>        443:30080/TCP   95s
[root@master ~]#

然后在浏览器中打开 https://192.168.0.201:30080/,其中ip地址为master节点的ip
如下:

在这里插入图片描述

3.2 浏览器访问dashboard页面

如下创建访问账户,获取token

# 创建账号
[root@master ~]# kubectl create serviceaccount dashboard-admin -n kubernetes-dashboard
serviceaccount/dashboard-admin created
[root@master ~]#

# 授权
[root@master ~]# kubectl create clusterrolebinding dashboard-admin-rb --clusterrole=cluster-admin --serviceaccount=kubernetes-dashboard:dashboard-admin
clusterrolebinding.rbac.authorization.k8s.io/dashboard-admin-rb created
[root@master ~]#

# 获取token
[root@master ~]# kubectl get secrets -n kubernetes-dashboard | grep dashboard-admin
dashboard-admin-token-748s2        kubernetes.io/service-account-token   3      3m16s
[root@master ~]#
[root@master ~]# kubectl describe secrets dashboard-admin-token-748s2 -n kubernetes-dashboard
Name:         dashboard-admin-token-748s2
Namespace:    kubernetes-dashboard
Labels:       <none>
Annotations:  kubernetes.io/service-account.name: dashboard-admin
              kubernetes.io/service-account.uid: 865e01fd-0ef5-4f42-9dad-f49116ecce0a

Type:  kubernetes.io/service-account-token

Data
====
token:      eyJhbGciOiJSUzI1NiIsImtpZCI6IlMzcHVkSWhFclhxc0Eydzh0SXc4Q0ltQnVGc0xaZElsR0gtNzBUalBKSmsifQ.eyJpc3MiOiJrdWJlcm5ldGVzL3NlcnZpY2VhY2NvdW50Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9uYW1lc3BhY2UiOiJrdWJlcm5ldGVzLWRhc2hib2FyZCIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VjcmV0Lm5hbWUiOiJkYXNoYm9hcmQtYWRtaW4tdG9rZW4tNzQ4czIiLCJrdWJlcm5ldGVzLmlvL3NlcnZpY2VhY2NvdW50L3NlcnZpY2UtYWNjb3VudC5uYW1lIjoiZGFzaGJvYXJkLWFkbWluIiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9zZXJ2aWNlLWFjY291bnQudWlkIjoiODY1ZTAxZmQtMGVmNS00ZjQyLTlkYWQtZjQ5MTE2ZWNjZTBhIiwic3ViIjoic3lzdGVtOnNlcnZpY2VhY2NvdW50Omt1YmVybmV0ZXMtZGFzaGJvYXJkOmRhc2hib2FyZC1hZG1pbiJ9.tTuwAikwMmUr9IL781PPTp9qx6jz7OXox8H3XvtYqtKBX7JZAM0lfkoMmtt8QPGvEgGhMO0Ze25uNjiRG5BxwZ5f7mzIWgpvxe5IIxrVYNl-xNu4Iml3cSzsHKrwXHpdhIn_lqEkqA0_060t4IRW1MiTKqnN_53q8UPu_YXaby4JchhHA-pmRh2qYdY7pVcNsDFc1W0Eo6UNG9Jw3Y3NNdTJAT-w5dzTFfLhV5TpG6STBihA8Aq9oLgx_88DHeiHA4xrGtWkCG8Bwx60bpVIwOOVMwg9iyW89ES8Zl5CcQvBOWNhnfIAq6d2OPNInSoHV_Xv1OSsV-Sex0EImKFssw
ca.crt:     1066 bytes
namespace:  20 bytes
[root@master ~]#

然后将toke拷贝到浏览器中即可,如下,即可看到登录后的dashboard页面了
在这里插入图片描述

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
10天前
|
Prometheus Kubernetes 监控
OpenAI故障复盘 - 阿里云容器服务与可观测产品如何保障大规模K8s集群稳定性
聚焦近日OpenAI的大规模K8s集群故障,介绍阿里云容器服务与可观测团队在大规模K8s场景下我们的建设与沉淀。以及分享对类似故障问题的应对方案:包括在K8s和Prometheus的高可用架构设计方面、事前事后的稳定性保障体系方面。
|
7天前
|
Kubernetes Ubuntu 网络安全
ubuntu使用kubeadm搭建k8s集群
通过以上步骤,您可以在 Ubuntu 系统上使用 kubeadm 成功搭建一个 Kubernetes 集群。本文详细介绍了从环境准备、安装 Kubernetes 组件、初始化集群到管理和使用集群的完整过程,希望对您有所帮助。在实际应用中,您可以根据具体需求调整配置,进一步优化集群性能和安全性。
44 12
|
12天前
|
Kubernetes 网络协议 应用服务中间件
Kubernetes Ingress:灵活的集群外部网络访问的利器
《Kubernetes Ingress:集群外部访问的利器-打造灵活的集群网络》介绍了如何通过Ingress实现Kubernetes集群的外部访问。前提条件是已拥有Kubernetes集群并安装了kubectl工具。文章详细讲解了Ingress的基本组成(Ingress Controller和资源对象),选择合适的版本,以及具体的安装步骤,如下载配置文件、部署Nginx Ingress Controller等。此外,还提供了常见问题的解决方案,例如镜像下载失败的应对措施。最后,通过部署示例应用展示了Ingress的实际使用方法。
29 2
|
24天前
|
存储 Kubernetes 关系型数据库
阿里云ACK备份中心,K8s集群业务应用数据的一站式灾备方案
本文源自2024云栖大会苏雅诗的演讲,探讨了K8s集群业务为何需要灾备及其重要性。文中强调了集群与业务高可用配置对稳定性的重要性,并指出人为误操作等风险,建议实施周期性和特定情况下的灾备措施。针对容器化业务,提出了灾备的新特性与需求,包括工作负载为核心、云资源信息的备份,以及有状态应用的数据保护。介绍了ACK推出的备份中心解决方案,支持命名空间、标签、资源类型等维度的备份,并具备存储卷数据保护功能,能够满足GitOps流程企业的特定需求。此外,还详细描述了备份中心的使用流程、控制台展示、灾备难点及解决方案等内容,展示了备份中心如何有效应对K8s集群资源和存储卷数据的灾备挑战。
|
2月前
|
Kubernetes 监控 Cloud Native
Kubernetes集群的高可用性与伸缩性实践
Kubernetes集群的高可用性与伸缩性实践
78 1
|
3月前
|
JSON Kubernetes 容灾
ACK One应用分发上线:高效管理多集群应用
ACK One应用分发上线,主要介绍了新能力的使用场景
|
3月前
|
Kubernetes 持续交付 开发工具
ACK One GitOps:ApplicationSet UI简化多集群GitOps应用管理
ACK One GitOps新发布了多集群应用控制台,支持管理Argo CD ApplicationSet,提升大规模应用和集群的多集群GitOps应用分发管理体验。
|
3月前
|
Kubernetes Cloud Native 云计算
云原生之旅:Kubernetes 集群的搭建与实践
【8月更文挑战第67天】在云原生技术日益成为IT行业焦点的今天,掌握Kubernetes已成为每个软件工程师必备的技能。本文将通过浅显易懂的语言和实际代码示例,引导你从零开始搭建一个Kubernetes集群,并探索其核心概念。无论你是初学者还是希望巩固知识的开发者,这篇文章都将为你打开一扇通往云原生世界的大门。
150 17
|
3月前
|
Kubernetes Ubuntu Linux
Centos7 搭建 kubernetes集群
本文介绍了如何搭建一个三节点的Kubernetes集群,包括一个主节点和两个工作节点。各节点运行CentOS 7系统,最低配置为2核CPU、2GB内存和15GB硬盘。详细步骤包括环境配置、安装Docker、关闭防火墙和SELinux、禁用交换分区、安装kubeadm、kubelet、kubectl,以及初始化Kubernetes集群和安装网络插件Calico或Flannel。
235 4
|
3月前
|
Kubernetes 应用服务中间件 nginx
搭建Kubernetes v1.31.1服务器集群,采用Calico网络技术
在阿里云服务器上部署k8s集群,一、3台k8s服务器,1个Master节点,2个工作节点,采用Calico网络技术。二、部署nginx服务到k8s集群,并验证nginx服务运行状态。
1068 1

热门文章

最新文章