踩坑实录,Kubernetes集群搭建

简介: 老早之前就说要在虚拟机上装一波Kubernetes集群,但是呢之前装了一次报错了,后来一直也没有重装,趁着这几天放假休息,又重新装了一波,可算是搞定了,本篇文章就将安装的注意事项,以及安装过程向大家分享一下,让大家避免踩坑。

前期准备

Kubernetes集群安装对硬件的要求还是比较高的,一般最低要求3台2核4G,这里我们的linux版本也选择常用的Cent OS 7.6。

一般呢,我们自己想要搭建学习环境首先得有一台模板虚拟机,就是硬件、操作系统、网络、基本命令,防火墙等都设置OK的linux虚拟主机,后续需要扩展集群只需要拷贝该模板机,修改主机名和静态IP地址即可。

这里如何设置模板机,我之前出过文档,大家可以参考 模板虚拟机安装文档

一般操作步骤就是:

  • 能支持开启多台虚拟机的高配主机一台(8核,16G,300G空闲存储)
  • 安装虚拟机软件,新建虚拟机,设置虚拟机硬件
  • 安装操作系统,需提前准备要安装操作系统的版本
  • 主机装XShell、XFtp等远程连接工具(操作更方便)
  • 安装Linux常用命令
  • 设置网络,配置静态IP
  • 关闭防火墙
  • 模板机构建完毕,拷贝模板机(修改主机名和静态IP地址)使用即可

Kubernetes 安装注意事项

  • 硬件分配一定不能太吝啬(2核4G)
  • Docker版本一定要与Kubernetes版本对应,如果不对应后续安装是会出错的,我就在这翻车了

    Docker版本选择 点击想要安装的K8s版本,进入查看哪些版本的Docker支持

小知识: 如果版本安装错误如何回退呢?

# 1 docker版本错误
# 1.1 停止docker服务
systemctl stop docker.service
# 1.2 下载正确的docker版本(版本号一定要写对)
yum downgrade --setopt=obsoletes=0 -y docker-ce-18.09.5-3.el7 docker-ce-cli-18.09.5-3.el7 containerd.io
# 1.3 启动docker服务
systemctl start docker.service
​
# 2 kubernetes版本错误
# 2.1 重置kubeadm
kubeadm reset
# 2.2 卸载
yum erase -y kubelet kubectl kubeadm kubernetes-cni
# 2.3 重新安装
yum install -y kubelet-1.15.1 kubeadm-1.15.1 kubectl-1.15.1
# 查看版本
kubectl version

Kubeadm 安装K8s

克隆三台机器,一台主节点两台从节点,这里我们搭建简单集群(非高可用集群)

image.png

小知识: 使用Xshell工具批量执行命令(三台机器需要同时执行的命令)

如下图,我们可以在命令编辑窗口选择命令的应用范围,回车即可执行到对应窗口

image.png

Docker 安装

卸载docker旧版本

# 在 master 节点和 slave 节点都要执行
sudo yum remove -y docker \
docker-client \
docker-client-latest \
docker-common \
docker-latest \
docker-latest-logrotate \
docker-logrotate \
docker-selinux \
docker-engine-selinux \
docker-engine

设置docker镜像源

# 在 master 节点和 slave 节点都要执行
sudo yum install -y yum-utils \
device-mapper-persistent-data \
lvm2
sudo yum-config-manager \
--add-repo \
https://download.docker.com/linux/centos/docker-ce.repo

安装并启动 docker

# 在 master 节点和 slave 节点都要执行
sudo yum install -y docker-ce-18.09.7 docker-ce-cli-18.09.7 containerd.io
# 自动启动
sudo systemctl enable docker
sudo systemctl start docker
# 检查doker版本
docker version

安装 nfs-utils

# 在 master 节点和 slave 节点都要执行
sudo yum install -y nfs-utils

必须先安装 nfs-utils 才能挂载 nfs 网络存储

K8S基本配置

配置K8S的yum源

# 在 master 节点和 slave 节点都要执行
cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
       http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

关闭 防火墙、SeLinux、swap

# 在 master 节点和 slave 节点都要执行
systemctl stop firewalld
systemctl disable firewalld
​
setenforce 0
sed -i "s/SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config
​
swapoff -a
yes | cp /etc/fstab /etc/fstab_bak
cat /etc/fstab_bak |grep -v swap > /etc/fstab

修改 /etc/sysctl.conf

# 在 master 节点和 slave 节点都要执行
vim /etc/sysctl.conf

添加(追加至末尾即可)

net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1

执行命令以应用

# 在 master 节点和 slave 节点都要执行
sysctl -p

安装kubelet、kubeadm、kubectl

# 在 master 节点和 slave 节点都要执行
yum install -y kubelet-1.15.1 kubeadm-1.15.1 kubectl-1.15.1

修改docker Cgroup Driver为systemd ,如果不修改后续,从节点加入集群会出错

# 在 master 节点和 slave 节点都要执行
vim /usr/lib/systemd/system/docker.service
# 将--exec-opt native.cgroupdriver=systemd 添加在 
# ExecStart=/usr/bin/dockerd -H fd:// --containerd=/run/containerd/containerd.sock 后边
ExecStart=/usr/bin/dockerd -H fd:// --containerd=/run/containerd/containerd.sock --exec-opt native.cgroupdriver=systemd

设置 docker 镜像

执行以下命令使用 docker 国内镜像,提高 docker 镜像下载速度和稳定

# 在 master 节点和 slave 节点都要执行
curl -sSL https://get.daocloud.io/daotools/set_mirror.sh | sh -s http://f1361db2.m.daocloud.io

重启 docker,并启动 kubelet

# 在 master 节点和 slave 节点都要执行
systemctl daemon-reload
systemctl restart docker

启动 kubelet

# 在 master 节点和 slave 节点都要执行
systemctl enable kubelet
systemctl start kubelet

初始化主节点

在/etc/hosts中设置域名

这里我们可以给三台主机设置对应的域名,便于访问(x.x.x.x 处写每台主机对应的静态IP)

# 在 master 节点和 slave 节点都要执行
echo "x.x.x.x  master" >> /etc/hosts
echo "x.x.x.x  slave1" >> /etc/hosts
echo "x.x.x.x  slave2" >> /etc/hosts

创建 ./kubeadm-config.yaml

初始化只在主节点执行即可

# 只在 master 节点执行
cat <<EOF > ./kubeadm-config.yaml
apiVersion: kubeadm.k8s.io/v1beta1
kind: ClusterConfiguration
kubernetesVersion: v1.15.1
imageRepository: registry.cn-hangzhou.aliyuncs.com/google_containers
controlPlaneEndpoint: "master:6443"
networking:
  podSubnet: "10.100.0.1/20"
EOF

注:podSubnet 所使用的网段不能与节点所在的网段重叠

初始化 apiserver

# 只在 master 节点执行
kubeadm init --config=kubeadm-config.yaml --upload-certs

这里是最容易出错的一点,跑错不要慌,翻译一下错误,对应解决就行(可能端口占用,可能版本不对应,可能上边某些步骤配置错误)

没抛错的话,这里会慢一些,稍等几分

正常会输出Your Kubernetes control-Plane has initialized successfully! 然后巴拉巴拉一堆内容,注意

Your Kubernetes control-plane has initialized successfully!
​
To start using your cluster, you need to run the following as a regular user:
​
  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config
​
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/
​
You can now join any number of the control-plane node running the following command on each as root:
​
  kubeadm join master:6443 --token hdlzr4.xit38cbhscw2uyii \
    --discovery-token-ca-cert-hash sha256:0a4d7b1c842cd125f0d5fad97f64aadc51bbb595591699e6e4181cb92b515a11 \
    --control-plane --certificate-key 58d2c5f895097bfde0124955f7c1355f633f51bd0317b9b5bfcf6f3df0272189
​
Please note that the certificate-key gives access to cluster sensitive data, keep it secret!
As a safeguard, uploaded-certs will be deleted in two hours; If necessary, you can use 
"kubeadm init phase upload-certs --upload-certs" to reload certs afterward.
​
Then you can join any number of worker nodes by running the following on each as root:
​
kubeadm join master:6443 --token hdlzr4.xit38cbhscw2uyii \
    --discovery-token-ca-cert-hash sha256:0a4d7b1c842cd125f0d5fad97f64aadc51bbb595591699e6e4181cb92b515a11 

初始化 root 用户的 kubectl 配置

# 只在 master 节点执行
rm -rf /root/.kube/
mkdir /root/.kube/
cp -i /etc/kubernetes/admin.conf /root/.kube/config

安装 calico

# 只在 master 节点执行
kubectl apply -f https://docs.projectcalico.org/v3.6/getting-started/kubernetes/installation/hosted/kubernetes-datastore/calico-networking/1.7/calico.yaml

calico安装就绪,执行如下命令,等待 3-10 分钟,直到所有的容器组处于 Running 状态

# 只在 master 节点执行
watch kubectl get pod -n kube-system

检查 master 初始化结果

# 只在 master 节点执行
kubectl get nodes

这样主节点我们就安装完毕了

初始化从节点

获得 join命令参数

# 只在 master 节点执行
kubeadm token create --print-join-command

这里我们会得到一个token,注意token过期

在从节点上使用join命令即可,细心的同学就会发现在主节点初始化成功后,这个命令已经打印在屏幕上了

# 只在 slave 节点执行
kubeadm join master:6443 --token hdlzr4.xit38cbhscw2uyii \
    --discovery-token-ca-cert-hash sha256:0a4d7b1c842cd125f0d5fad97f64aadc51bbb595591699e6e4181cb92b515a11 

检查初始化结果

从节点都加入进来,集群初始化成功

# 只在 master 节点执行
[root@master ~]# kubectl get nodes
NAME     STATUS   ROLES    AGE   VERSION
master   Ready    master   10h   v1.15.1
slave1   Ready    <none>   10h   v1.15.1
slave2   Ready    <none>   10h   v1.15.1

移除 worker 节点

安装出错,或者想要退出集群

# 只在 slave 节点执行
kubeadm reset
# 只在 master 节点执行 node后是节点名,kubectl get nodes可知节点名
kubectl delete node slave1

安装 Ingress Controller

# 只在 master 节点执行
kubectl apply -f https://raw.githubusercontent.com/eip-work/eip-monitor-repository/master/dashboard/nginx-ingress.yaml

配置域名解析

将域名 *.com 解析到 slave1 的 IP 地址 z.z.z.z (也可以是 slave2 的地址 y.y.y.y)

验证:在浏览器访问 *.com,将得到 404 NotFound 错误页面

由于需要申请域名,过程会比较繁琐,有如下两种替代方案:

  • 在您的客户端机器设置 hosts ;
  • 暂时放弃域名的配置,临时使用 NodePort 或者 kubectl port-forward 的方式访问部署在 K8S 上的 web 应用

真正的生产环境的安装会更复杂一些,需要考虑的问题也会更多,本文搭建的集群供学习使用是可以的,Kubernetes安装完毕,就需要安装对应的图形化界面来操作K8s便于使用。

相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务&nbsp;ACK 容器服务&nbsp;Kubernetes&nbsp;版(简称&nbsp;ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情:&nbsp;https://www.aliyun.com/product/kubernetes
目录
相关文章
|
3天前
|
存储 运维 Kubernetes
Kubernetes 集群的监控与维护策略
【4月更文挑战第23天】 在微服务架构日益盛行的当下,容器编排工具如 Kubernetes 成为了运维工作的重要环节。然而,随着集群规模的增长和复杂性的提升,如何确保 Kubernetes 集群的高效稳定运行成为了一大挑战。本文将深入探讨 Kubernetes 集群的监控要点、常见问题及解决方案,并提出一系列切实可行的维护策略,旨在帮助运维人员有效管理和维护 Kubernetes 环境,保障服务的持续可用性和性能优化。
|
4天前
|
存储 运维 Kubernetes
Kubernetes 集群的持续性能优化实践
【4月更文挑战第22天】在动态且复杂的微服务架构中,确保 Kubernetes 集群的高性能运行是至关重要的。本文将深入探讨针对 Kubernetes 集群性能优化的策略与实践,从节点资源配置、网络优化到应用部署模式等多个维度展开,旨在为运维工程师提供一套系统的性能调优方法论。通过实际案例分析与经验总结,读者可以掌握持续优化 Kubernetes 集群性能的有效手段,以适应不断变化的业务需求和技术挑战。
17 4
|
2月前
|
Kubernetes Ubuntu 应用服务中间件
在Ubuntu22.04 LTS上搭建Kubernetes集群
在Ubuntu22.04.4上安装Kubernetes v1.28.7,步骤超详细
338 1
在Ubuntu22.04 LTS上搭建Kubernetes集群
|
1月前
|
Prometheus 监控 Kubernetes
Kubernetes 集群监控与日志管理实践
【2月更文挑战第29天】 在微服务架构日益普及的当下,Kubernetes 已成为容器编排的事实标准。然而,随着集群规模的扩大和业务复杂度的提升,有效的监控和日志管理变得至关重要。本文将探讨构建高效 Kubernetes 集群监控系统的策略,以及实施日志聚合和分析的最佳实践。通过引入如 Prometheus 和 Fluentd 等开源工具,我们旨在为运维专家提供一套完整的解决方案,以保障系统的稳定性和可靠性。
|
22天前
|
数据库 存储 监控
什么是 SAP HANA 内存数据库 的 Delta Storage
什么是 SAP HANA 内存数据库 的 Delta Storage
17 0
什么是 SAP HANA 内存数据库 的 Delta Storage
|
11天前
|
Kubernetes 搜索推荐 Docker
使用 kubeadm 部署 Kubernetes 集群(二)k8s环境安装
使用 kubeadm 部署 Kubernetes 集群(二)k8s环境安装
53 17
|
24天前
|
消息中间件 Kubernetes Kafka
Terraform阿里云创建资源1分钟创建集群一键发布应用Terraform 创建 Kubernetes 集群
Terraform阿里云创建资源1分钟创建集群一键发布应用Terraform 创建 Kubernetes 集群
17 0
|
25天前
|
Kubernetes 安全 网络安全
搭建k8s集群kubeadm搭建Kubernetes二进制搭建Kubernetes集群
搭建k8s集群kubeadm搭建Kubernetes二进制搭建Kubernetes集群
106 0
|
1月前
|
Kubernetes Cloud Native Docker
【云原生】kubeadm快速搭建K8s集群Kubernetes1.19.0
Kubernetes 是一个开源平台,用于管理容器化工作负载和服务,提供声明式配置和自动化。源自 Google 的大规模运维经验,它拥有广泛的生态支持。本文档详细介绍了 Kubernetes 集群的搭建过程,包括服务器配置、Docker 和 Kubernetes 组件的安装,以及 Master 和 Node 的部署。此外,还提到了使用 Calico 作为 CNI 网络插件,并提供了集群功能的测试步骤。
219 0
|
1月前
|
Prometheus 监控 Kubernetes
Kubernetes 集群的监控与日志管理实践
【2月更文挑战第31天】 在微服务架构日益普及的今天,容器编排工具如Kubernetes已成为部署、管理和扩展容器化应用的关键平台。然而,随着集群规模的扩大和业务复杂性的增加,如何有效监控集群状态、及时响应系统异常,以及管理海量日志信息成为了运维人员面临的重要挑战。本文将深入探讨 Kubernetes 集群监控的最佳实践和日志管理的高效策略,旨在为运维团队提供一套系统的解决思路和操作指南。
27 0