k8s学习一:使用kubeadm安装k8s

简介: k8s学习一:使用kubeadm安装k8s

写在开头

在学习整个k8s之前,先想办法搭建个k8s出现成果,然后根据这个成果进行深入学习,才会让人有学习的动力,本文将记录自己的安装k8s教程

准备工作:

一台ubuntu服务器(虚拟机)

k8s环境配置

host配置

我们先给服务器定义好hosts,便于直接找到该服务器ip

192.168.192.9 master

注意,后面如果需要增加集群,也需要配置其他的hosts

主机名修改(非必要)

修改 /etc/hostname 改为 master

关闭防火墙


由于k8s的防火墙规则和系统的冲突,所以需要关闭系统的防火墙

sudo ufw disable
systemctl stop ufw

关闭selinux

关闭selinux以允许容器访问宿主机的文件系统  (新装的Ubuntu好像没这个东西,可以自行百度)

禁用swap

swap会在内存不足的时候使用磁盘当做内存,但是效率会非常低,导致服务器直接卡死

sudo swapoff -a
vi /etc/fstab  # 将swap一行前面增加个# 号注释掉

网络参数

vi /etc/sysctl.d/k8s.conf  #将下面的3行(去掉#号写入到此文件)
#net.bridge.bridge-nf-call-ip6tables = 1
#net.bridge.bridge-nf-call-iptables = 1
#net.ipv4.ip_forward = 1
modprobe br_netfilter  
sysctl -p /etc/sysctl.d/k8s.conf

安装docker

apt-get install docker.io -y
# 设置开机启动并启动docker  
sudo systemctl start docker
sudo systemctl enble docker
# 修改docker运行时,并且增加镜像
cat <<EOF | sudo tee /etc/docker/daemon.json
{
  "exec-opts": \["native.cgroupdriver=systemd"\],
  "log-driver": "json-file",
  "log-opts": {
    "max-size": "100m"
  },
  "registry-mirrors": \[
    "https://reg-mirror.qiniu.com/"
  \]
  "storage-driver": "overlay2"
}
EOF

配置ubuntu k8s 安装源

#使得 apt 支持 ssl 传输
apt-get update && apt-get install -y apt-transport-https
#下载 gpg 密钥
curl https://mirrors.aliyun.com/kubernetes/apt/doc/apt-key.gpg | apt-key add -
#添加 k8s 镜像源
cat <<EOF >/etc/apt/sources.list.d/kubernetes.list
deb https://mirrors.aliyun.com/kubernetes/apt/ kubernetes-xenial main
EOF
#更新
apt-get update

安装 kubeadm、kubelet、kubectl

注意!这里最好是只安装 1.24之前的版本,新版本可能安装很多问题,导致无心学习,我这里选择的是1.23.10

apt list--all-versions package_name  ##查看版本 
apt-get install -y kubeadm=1.23.10-00 kubelet=1.23.10-00 kubectl=1.23.10-00
# 阻止自动更新(apt upgrade时忽略)。所以更新的时候先unhold,更新完再hold。
apt-mark hold kubelet kubeadm kubectl

通过kubeadm 进行初始化k8s集群

kubeadm init \
--apiserver-advertise-address 192.168.192.9 \
--apiserver-bind-port 6443 \
--pod-network-cidr 10.244.0.0/16 \
--image-repository registry.aliyuncs.com/google_containers

如果初始化出问题,就需要自己百度多解决了

网络异常,图片无法展示
|

初始化成功之后:

o/control-plane node.kubernetes.io/exclude-from-external-load-balancers\]
\[mark-control-plane\] Marking the node master as control-plane by adding the taints \[node-role.kubernetes.io/master:NoSchedule\]
\[bootstrap-token\] Using token: mdutmg.pbecp9mqcowc4b0u
\[bootstrap-token\] Configuring bootstrap tokens, cluster-info ConfigMap, RBAC Roles
\[bootstrap-token\] configured RBAC rules to allow Node Bootstrap tokens to get nodes
\[bootstrap-token\] configured RBAC rules to allow Node Bootstrap tokens to post CSRs in order for nodes to get long term certificate credentials
\[bootstrap-token\] configured RBAC rules to allow the csrapprover controller automatically approve CSRs from a Node Bootstrap Token
\[bootstrap-token\] configured RBAC rules to allow certificate rotation for all node client certificates in the cluster
\[bootstrap-token\] Creating the "cluster-info" ConfigMap in the "kube-public" namespace
\[kubelet-finalize\] Updating "/etc/kubernetes/kubelet.conf" to point to a rotatable kubelet client certificate and key
\[addons\] Applied essential addon: CoreDNS
\[addons\] Applied essential addon: kube-proxy
Your Kubernetes control-plane has initialized successfully!
To start using your cluster, you need to run the following as a regular user:
  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config
Alternatively, if you are the root user, you can run:
  export KUBECONFIG=/etc/kubernetes/admin.conf
You should now deploy a pod network to the cluster.
Run "kubectl apply -f \[podnetwork\].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/
Then you can join any number of worker nodes by running the following on each as root:
kubeadm join 192.168.192.9:6443 --token mdutmg.pbecp9mqcowc4b0u \
        --discovery-token-ca-cert-hash sha256:61f8d9b13b94a3c7eff88e25faf1c873cfd559d1ee2f2988009ac85de11ec730

保存最后的kubeadm join 代码,后面加入集群有用

查看集群是否成功部署:

kubectl get nodes

如果提示:The connection to the server localhost:8080 was refused - did you specify the right host or port?

是因为没有绑定好集群环境

echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> /etc/profile
source /etc/profile

即可正常显示

image.png

这边可以看到,STATUS 是NotReady状态,因为还有网络插件没装

安装 Pod Network(flannel网络插件)

wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

可以查看到kube-flannel的配置项

image.png

自己手动拉下镜像,避免部署的时候失败:

root@test02:/home/tioncico# docker pull docker.io/rancher/mirrored-flannelcni-flannel:v0.19.2

部署flannel插件

root@tioncico-pc:/home/tioncico# kubectl apply -f kube-flannel.yml 
namespace/kube-flannel created
clusterrole.rbac.authorization.k8s.io/flannel created
clusterrolebinding.rbac.authorization.k8s.io/flannel created
serviceaccount/flannel created
configmap/kube-flannel-cfg created
daemonset.apps/kube-flannel-ds created
root@tioncico-pc:/home/tioncico# 
root@test02:/home/tioncico# kubectl get pod --all-namespaces
NAMESPACE              NAME                                         READY   STATUS    RESTARTS   AGE
kube-flannel           kube-flannel-ds-rfx4q                        1/1     Running   0          4s
kube-system            coredns-6d8c4cb4d-575sw                      1/1     Running   0          65m
kube-system            coredns-6d8c4cb4d-p4nv8                      1/1     Running   0          65m
kube-system            etcd-master                                  1/1     Running   0          66m
kube-system            kube-apiserver-master                        1/1     Running   0          66m
kube-system            kube-controller-manager-master               1/1     Running   0          66m
kube-system            kube-proxy-n2n4n                             1/1     Running   0          65m
kube-system            kube-scheduler-master                        1/1     Running   0          66m
kubernetes-dashboard   dashboard-metrics-scraper-6f669b9c9b-86hm6   1/1     Running   0          28m
kubernetes-dashboard   kubernetes-dashboard-54c5fb4776-qb2lf        1/1     Running   0          28m
root@test02:/home/tioncico#

可看到nodes,pods一切正常

root@test02:/home/tioncico# kubectl get pods --all-namespaces
NAMESPACE              NAME                                         READY   STATUS    RESTARTS   AGE
kube-flannel           kube-flannel-ds-rfx4q                        1/1     Running   0          58s
kube-system            coredns-6d8c4cb4d-575sw                      1/1     Running   0          66m
kube-system            coredns-6d8c4cb4d-p4nv8                      1/1     Running   0          66m
kube-system            etcd-master                                  1/1     Running   0          67m
kube-system            kube-apiserver-master                        1/1     Running   0          67m
kube-system            kube-controller-manager-master               1/1     Running   0          67m
kube-system            kube-proxy-n2n4n                             1/1     Running   0          66m
kube-system            kube-scheduler-master                        1/1     Running   0          67m
kubernetes-dashboard   dashboard-metrics-scraper-6f669b9c9b-86hm6   1/1     Running   0          29m
kubernetes-dashboard   kubernetes-dashboard-54c5fb4776-qb2lf        1/1     Running   0          29m
root@test02:/home/tioncico# kubectl get nodes
NAME     STATUS   ROLES                  AGE   VERSION
master   Ready    control-plane,master   67m   v1.23.10
root@test02:/home/tioncico#

安装失败重置集群

#在master节点之外的节点进行操作
kubeadm reset
systemctl stop kubelet
systemctl stop docker
rm -rf /var/lib/cni/
rm -rf /var/lib/kubelet/*
rm -rf /etc/cni/
ifconfig cni0 down
ifconfig flannel.1 down
ifconfig docker0 down
ip link delete cni0
ip link delete flannel.1
##重启kubelet
systemctl restart kubelet
##重启docker
systemctl restart docker
相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
3月前
|
存储 Kubernetes 持续交付
k8s学习
【10月更文挑战第1天】
117 4
|
9天前
|
Kubernetes Ubuntu 网络安全
ubuntu使用kubeadm搭建k8s集群
通过以上步骤,您可以在 Ubuntu 系统上使用 kubeadm 成功搭建一个 Kubernetes 集群。本文详细介绍了从环境准备、安装 Kubernetes 组件、初始化集群到管理和使用集群的完整过程,希望对您有所帮助。在实际应用中,您可以根据具体需求调整配置,进一步优化集群性能和安全性。
44 12
|
21天前
|
Kubernetes 应用服务中间件 nginx
二进制安装Kubernetes(k8s)v1.32.0
本指南提供了一个详细的步骤,用于在Linux系统上通过二进制文件安装Kubernetes(k8s)v1.32.0,支持IPv4+IPv6双栈。具体步骤包括环境准备、系统配置、组件安装和配置等。
199 10
|
3月前
|
Kubernetes Ubuntu Docker
从0开始搞K8S:使用Ubuntu进行安装(环境安装)
通过上述步骤,你已经在Ubuntu上成功搭建了一个基本的Kubernetes单节点集群。这只是开始,Kubernetes的世界广阔且深邃,接下来你可以尝试部署应用、了解Kubernetes的高级概念如Services、Deployments、Ingress等,以及探索如何利用Helm等工具进行应用管理,逐步提升你的Kubernetes技能树。记住,实践是最好的老师,不断实验与学习,你将逐渐掌握这一强大的容器编排技术。
378 1
|
2月前
|
Kubernetes Ubuntu Linux
我应该如何安装Kubernetes
我应该如何安装Kubernetes
|
3月前
|
存储 Kubernetes 调度
|
3月前
|
Kubernetes Linux 开发工具
centos7通过kubeadm安装k8s 1.27.1版本
centos7通过kubeadm安装k8s 1.27.1版本
|
11天前
|
Prometheus Kubernetes 监控
OpenAI故障复盘 - 阿里云容器服务与可观测产品如何保障大规模K8s集群稳定性
聚焦近日OpenAI的大规模K8s集群故障,介绍阿里云容器服务与可观测团队在大规模K8s场景下我们的建设与沉淀。以及分享对类似故障问题的应对方案:包括在K8s和Prometheus的高可用架构设计方面、事前事后的稳定性保障体系方面。
|
14天前
|
Kubernetes 网络协议 应用服务中间件
Kubernetes Ingress:灵活的集群外部网络访问的利器
《Kubernetes Ingress:集群外部访问的利器-打造灵活的集群网络》介绍了如何通过Ingress实现Kubernetes集群的外部访问。前提条件是已拥有Kubernetes集群并安装了kubectl工具。文章详细讲解了Ingress的基本组成(Ingress Controller和资源对象),选择合适的版本,以及具体的安装步骤,如下载配置文件、部署Nginx Ingress Controller等。此外,还提供了常见问题的解决方案,例如镜像下载失败的应对措施。最后,通过部署示例应用展示了Ingress的实际使用方法。
29 2
|
25天前
|
存储 Kubernetes 关系型数据库
阿里云ACK备份中心,K8s集群业务应用数据的一站式灾备方案
本文源自2024云栖大会苏雅诗的演讲,探讨了K8s集群业务为何需要灾备及其重要性。文中强调了集群与业务高可用配置对稳定性的重要性,并指出人为误操作等风险,建议实施周期性和特定情况下的灾备措施。针对容器化业务,提出了灾备的新特性与需求,包括工作负载为核心、云资源信息的备份,以及有状态应用的数据保护。介绍了ACK推出的备份中心解决方案,支持命名空间、标签、资源类型等维度的备份,并具备存储卷数据保护功能,能够满足GitOps流程企业的特定需求。此外,还详细描述了备份中心的使用流程、控制台展示、灾备难点及解决方案等内容,展示了备份中心如何有效应对K8s集群资源和存储卷数据的灾备挑战。

热门文章

最新文章