centos7安装k8s集群

简介: centos7安装k8s集群

系统环境设置


# 安装docker所需的工具yum install -y yum-utils device-mapper-persistent-data lvm2
# 配置阿里云的docker源yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
# 查看docker 版本╰─# yum list docker-ce showduplicates | sort -r    * updates: mirrors.aliyun.com
Loading mirror speeds from cached hostfile
Loaded plugins: fastestmirror
Installed Packages
 * extras: mirrors.aliyun.com
docker-ce.x86_64               3:20.10.17-3.el7                @docker-ce-stable
 * base: mirrors.aliyun.com
# 指定安装这个版本的docker-ceyum install -y docker-ce-3:20.10.17-3.el7
# 修改drivervim /etc/docker/daemon.json
#添加以下信息{
"exec-opts":["native.cgroupdriver=systemd"]
}
# 启动dockersystemctl enable docker && systemctl start docker


k8s环境准备


# 关闭防火墙systemctl disable firewalld
systemctl stop firewalld
# 关闭selinux# 临时禁用selinuxsetenforce 0# 永久关闭 修改/etc/sysconfig/selinux文件设置sed-i's/SELINUX=permissive/SELINUX=disabled/' /etc/sysconfig/selinux
sed-i"s/SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config
# 禁用交换分区swapoff -a# 永久禁用,打开/etc/fstab注释掉swap那一行。sed-i's/.*swap.*/#&/' /etc/fstab
# 修改内核参数cat <<EOF > /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables =1net.bridge.bridge-nf-call-iptables =1EOF
sysctl --system


安装kubeadm、kubelet、kubectl


# 执行配置k8s阿里云源cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1gpgcheck=1repo_gpgcheck=0gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
# 安装kubeadm、kubectl、kubeletyum install -y kubectl-1.21.5 kubeadm-1.21.5 kubelet-1.21.5
# 启动kubelet服务systemctl enable kubelet && systemctl start kubelet



初始化k8s


kubeadm init --image-repository registry.aliyuncs.com/google_containers --kubernetes-version=v1.21.5 --pod-network-cidr=10.10.0.0/16 --service-cidr=10.20.0.0/16 --apiserver-advertise-address=192.168.10.201

--apiserver-advertise-address:虚机的ip地址


初始化成功,获得一下命令:


mkdir-p$HOME/.kube
sudocp-i /etc/kubernetes/admin.conf $HOME/.kube/config
sudochown$(id -u):$(id -g)$HOME/.kube/config
Alternatively, if you are the root user, you can run:
exportKUBECONFIG=/etc/kubernetes/admin.conf
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/
Then you can join any number of worker nodes by running the following on each as root:
kubeadm join 192.168.10.201:6443 --token 19s3o7.xzel3wisb53r6jsc \
--discovery-token-ca-cert-hash sha256:9adeb71478f04d25c470daef8a53f9ca4021e5f990388360f02445f495629f3b


执行一下命令:


mkdir-p$HOME/.kube
sudocp-i /etc/kubernetes/admin.conf $HOME/.kube/config
sudochown$(id -u):$(id -g)$HOME/.kube/config
exportKUBECONFIG=/etc/kubernetes/admin.conf


安装fannel网络插件



下载 网络插件 kube-flannel.yml


wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml


打开网络插件kube-flannel.yml文件,修改网络:


    }
  net-conf.json: |
    {
"Network": "10.10.0.0/16",   # 文件找到这一行,将默认的10.244.0.0/16 修改为10.10.0.0/16 "Backend": {
"Type": "vxlan"      }
    }


这里的"Network": "10.10.0.0/16" 地址 一定要和 k8s初始化时指定的 --pod-network-cidr=10.10.0.0/16 地址保持一致。




重启kubelet



systemctl daemon-reload
systemctl enable kubelet.service
systemctl status kubelet.service


查看控制层所有组件是否正常运行


# kubectl get all -A              NAMESPACE      NAME                               READY   STATUS    RESTARTS   AGE
kube-flannel   pod/kube-flannel-ds-8qrl4          1/1     Running   10         50m
kube-system    pod/coredns-59d64cd4d4-ntpzx       1/1     Running   1          63m
kube-system    pod/coredns-59d64cd4d4-r7tvj       1/1     Running   1          63m
kube-system    pod/etcd-k201                      1/1     Running   1          63m
kube-system    pod/kube-apiserver-k201            1/1     Running   1          63m
kube-system    pod/kube-controller-manager-k201   1/1     Running   1          63m
kube-system    pod/kube-proxy-r6zrb               1/1     Running   1          63m
kube-system    pod/kube-scheduler-k201            1/1     Running   1          63m
NAMESPACE     NAME                 TYPE        CLUSTER-IP   EXTERNAL-IP   PORT(S)                  AGE
default       service/kubernetes   ClusterIP   10.20.0.1    <none>        443/TCP                  63m
kube-system   service/kube-dns     ClusterIP   10.20.0.10   <none>        53/UDP,53/TCP,9153/TCP   63m
NAMESPACE      NAME                             DESIRED   CURRENT   READY   UP-TO-DATE   AVAILABLE   NODE SELECTOR            AGE
kube-flannel   daemonset.apps/kube-flannel-ds   11111           <none>                   50m
kube-system    daemonset.apps/kube-proxy        11111           kubernetes.io/os=linux   63m
NAMESPACE     NAME                      READY   UP-TO-DATE   AVAILABLE   AGE
kube-system   deployment.apps/coredns   2/2     22           63m
NAMESPACE     NAME                                 DESIRED   CURRENT   READY   AGE
kube-system   replicaset.apps/coredns-59d64cd4d4   222       63m


Master node 参与工作负载



使用 kubeadm 初始化的集群, Pod 不会被调度到 Master Node 上,也就是说 Master  Node 不参与工作负载。这是因为当前的 master 节点 node1 被打上了 污点。


去掉这个污点使 master 参与工作负载:


╰─# kubectl taint nodes k201 node-role.kubernetes.io/master-node/k201 untainted
╭─root@k201 ~ 
╰─#




添加node节点



1.克隆k201虚机,作为node节点

2.修改克隆的虚机的ip 和  hostname


修改ip

vim /etc/sysconfig/network-scripts/ifcfg-ens33
IPADDR=xx.xx.xx.202


修改hostname


vim /etc/hostname
k202


修改hosts


vim /etc/hosts
 xx.xx.xx.201  k201
 xx.xx.xx.202  k202


重启虚机


reboot



删除 kubeadm




 

 kubeadm reset
 ifconfig cni0 down && ip link delete cni0
ifconfig flannel.1 down && ip link delete flannel.1
rm-rf /var/lib/cni/
rm-rf /etc/kubernetes
rm-rf /root/.kube/config
rm-rf /var/lib/etcd


加入节点


kubeadm join 192.168.10.201:6443 --token 19s3o7.xzel3wisb53r6jsc \
--discovery-token-ca-cert-hash sha256:9adeb71478f04d25c470daef8a53f9ca4021e5f990388360f02445f495629f3b


从201节点拷贝证书到202


scp root@k201:/root/.kube/config  /root/.kube/


验证测试


╰─# kubectl get nodes                  NAME   STATUS   ROLES                  AGE     VERSION
k201   Ready    control-plane,master   94m     v1.21.5
k202   Ready    <none>                 3m54s   v1.21.5
╭─root@k202 ~  
╰─#





相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
1月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
ACK One 的多集群应用分发,可以最小成本地结合您已有的单集群 CD 系统,无需对原先应用资源 YAML 进行修改,即可快速构建成多集群的 CD 系统,并同时获得强大的多集群资源调度和分发的能力。
75 9
|
1月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
本文介绍如何利用阿里云的分布式云容器平台ACK One的多集群应用分发功能,结合云效CD能力,快速将单集群CD系统升级为多集群CD系统。通过增加分发策略(PropagationPolicy)和差异化策略(OverridePolicy),并修改单集群kubeconfig为舰队kubeconfig,可实现无损改造。该方案具备多地域多集群智能资源调度、重调度及故障迁移等能力,帮助用户提升业务效率与可靠性。
|
1月前
|
分布式计算 Hadoop Java
CentOS中构建高可用Hadoop 3集群
这个过程像是在一个未知的森林中探索。但当你抵达终点,看到那个熟悉的Hadoop管理界面时,所有的艰辛都会化为乌有。仔细观察,尽全力,这就是构建高可用Hadoop 3集群的挑战之旅。
97 21
|
3月前
|
存储 Kubernetes 监控
K8s集群实战:使用kubeadm和kuboard部署Kubernetes集群
总之,使用kubeadm和kuboard部署K8s集群就像回归童年一样,简单又有趣。不要忘记,技术是为人服务的,用K8s集群操控云端资源,我们不过是想在复杂的世界找寻简单。尽管部署过程可能遇到困难,但朝着简化复杂的目标,我们就能找到意义和乐趣。希望你也能利用这些工具,找到你的乐趣,满足你的需求。
308 33
|
2月前
|
Java Linux
CentOS环境搭建Elasticsearch集群
至此,您已成功在CentOS环境下搭建了Elasticsearch集群。通过以上介绍和步骤,相信您对部署Elasticsearch集群有了充分的了解。最后祝您在使用Elasticsearch集群的过程中顺利开展工作!
143 22
|
3月前
|
Kubernetes 开发者 Docker
集群部署:使用Rancher部署Kubernetes集群。
以上就是使用 Rancher 部署 Kubernetes 集群的流程。使用 Rancher 和 Kubernetes,开发者可以受益于灵活性和可扩展性,允许他们在多种环境中运行多种应用,同时利用自动化工具使工作负载更加高效。
170 19
|
3月前
|
人工智能 分布式计算 调度
打破资源边界、告别资源浪费:ACK One 多集群Spark和AI作业调度
ACK One多集群Spark作业调度,可以帮助您在不影响集群中正在运行的在线业务的前提下,打破资源边界,根据各集群实际剩余资源来进行调度,最大化您多集群中闲置资源的利用率。
|
3月前
|
人工智能 运维 Kubernetes
2025 超详细!Lens Kubernetes IDE 多平台下载安装与集群管理教程
Lens 是一款企业级 Kubernetes 可视化操作平台,2025版实现了三大技术革新:AI智能运维(异常检测准确率98.7%)、多云联邦管理(支持50+集群)和实时3D拓扑展示。本文介绍其安装环境、配置流程、核心功能及高阶技巧,帮助用户快速上手并解决常见问题。适用于 Windows、macOS 和 Ubuntu 系统,需满足最低配置要求并前置依赖组件如 kubectl 和 Helm。通过 Global Cluster Hub 实现多集群管理,AI辅助故障诊断提升运维效率,自定义监控看板和插件生态扩展提供更多功能。
|
3月前
|
Prometheus Kubernetes 监控
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
134 0
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
|
6月前
|
Prometheus Kubernetes 监控
OpenAI故障复盘 - 阿里云容器服务与可观测产品如何保障大规模K8s集群稳定性
聚焦近日OpenAI的大规模K8s集群故障,介绍阿里云容器服务与可观测团队在大规模K8s场景下我们的建设与沉淀。以及分享对类似故障问题的应对方案:包括在K8s和Prometheus的高可用架构设计方面、事前事后的稳定性保障体系方面。