k8s集群环境的搭建(三)

简介: k8s集群环境的搭建

开启阿里云的镜像加速

打开阿里云官网,然后搜索容器镜像服务。


c0d24dad82034d4b8e926d2ca7668e3d.png

根据文档一步步操作:


95cede7ab7f64bcaae5f88d457e6f310.png


到这里,恭喜你,docker安装好了!


4.添加阿里云的 Kubernetes 的 YUM 源


由于kubernetes的镜像源在国外,非常慢,这里切换成国内的阿里云镜像源:


cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF


5.安装kubeadm、kubelet和kubectl


由于版本更新频繁,这里指定版本号部署:


yum install -y kubelet-1.21.10 kubeadm-1.21.10 kubectl-1.21.10


为了实现 Docker 使用的 cgroup drvier 和 kubelet 使用的 cgroup drver 一致,建议修改/etc/sysconfig/kubelet 文件的内容:


vim /etc/sysconfig/kubelet


# 修改
KUBELET_EXTRA_ARGS="--cgroup-driver=systemd"
KUBE_PROXY_MODE="ipvs"


vim /etc/docker/daemon.json


添加:


{
 "exec-opts":["native.cgroupdriver=systemd"]
}


重启:


systemctl restart docker
docker info | grep -i cgroup


设置为开机自启动即可,由于没有生成配置文件,集群初始化后自动启动:


systemctl enable kubelet


6.查看并安装Kubernetes所需镜像


查看 Kubernetes 安装所需镜像:


kubeadm config images list


232c86412a0f4b63bede7554a0624fea.png


下载 Kubernetes 安装所需镜像


docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver:v1.21.13
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager:v1.21.13
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler:v1.21.13
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy:v1.21.13
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.4.1
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/etcd:3.4.13-0
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:v1.8.0


给 coredns 镜像重新打 tag :


docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:v1.8.0 registry


7.部署 Kubernetes 的 Master 节点


在 192.168.172.101 机器上部署 Kubernetes 的 Master 节点:

由于默认拉取镜像地址k8s.gcr.io国内无法访问,这里需要指定阿里云镜像仓库地址


kubeadm init \
  --apiserver-advertise-address=192.168.172.101 \
  --image-repository=registry.cn-hangzhou.aliyuncs.com/google_containers \
  --kubernetes-version=v1.21.13 \
  --service-cidr=10.96.0.0/16 \
  --pod-network-cidr=10.244.0.0/16


注意:

apiserver-advertise-address 一定要是主机的 IP 地址。

apiserver-advertise-address 、service-cidr 和 pod-network-cidr 不能在同一个网络范围内。

不要使用 172.17.0.1/16 网段范围,因为这是 Docker 默认使用的。


成功的话,会有如下日志:


Your Kubernetes control-plane has initialized successfully!
To start using your cluster, you need to run the following as a regular user:
  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config
Alternatively, if you are the root user, you can run:
  export KUBECONFIG=/etc/kubernetes/admin.conf
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/
Then you can join any number of worker nodes by running the following on each as root:
kubeadm join 192.168.172.101:6443 --token zrelll.4hcypbur50301tm4 \
        --discovery-token-ca-cert-hash sha256:3c0ea6e5d64d95ec454c4db6f2b88ab50918802845231a334bc7aaef00782c5d


根据日志提示操作,在 192.168.172.101 执行如下命令:


mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
# 如果是 root 用户,还可以执行如下命令
export KUBECONFIG=/etc/kubernetes/admin.conf


默认的 token 有效期为 2 小时,当过期之后,该 token 就不能用了,这时可以使用如下的命令创建 token :


kubeadm token create --print-join-command


# 生成一个永不过期的token
kubeadm token create --ttl 0 --print-join-command


8.部署 Kubernetes 的 Node节点

根据日志提示操作,在 192.168.172.102 和 192.168.172.103 执行如下命令:


kubeadm join 192.168.172.101:6443 --token zrelll.4hcypbur50301tm4 \
        --discovery-token-ca-cert-hash sha256:3c0ea6e5d64d95ec454c4db6f2b88ab50918802845231a334bc7aaef00782c5d


9.部署网络插件

Kubernetes 支持多种网络插件,比如 flannel、calico、canal 等,任选一种即可,本次选择 calico(在 192.168.172.101 节点上执行)

calico 和 k8s 的版本对应


kubectl apply -f https://projectcalico.docs.tigera.io/v3.19/manifests/calico.yaml


查看部署 CNI 网络插件进度:


kubectl get pods -n kube-system


watch kubectl get pods -n kube-system


10.查看节点状态


在 Master(192.168.172.101)节点上查看节点状态:


kubectl get nodes


eb943ce80de141138319f2885cb7c8c7.png


11.设置 kube-proxy 的 ipvs 模式


在 Master(192.168.172.101)节点设置 kube-proxy 的 ipvs 模式:


kubectl edit cm kube-proxy -n kube-system


apiVersion: v1
data:
  config.conf: |-
    apiVersion: kubeproxy.config.k8s.io/v1alpha1
    bindAddress: 0.0.0.0
    bindAddressHardFail: false
    clientConnection:
      acceptContentTypes: ""
      burst: 0
      contentType: ""
      kubeconfig: /var/lib/kube-proxy/kubeconfig.conf
      qps: 0
    clusterCIDR: 10.244.0.0/16
    configSyncPeriod: 0s
    conntrack:
      maxPerCore: null
      min: null
      tcpCloseWaitTimeout: null
      tcpEstablishedTimeout: null
    detectLocalMode: ""
    enableProfiling: false
    healthzBindAddress: ""
    hostnameOverride: ""
    iptables:
      masqueradeAll: false
      masqueradeBit: null
      minSyncPeriod: 0s
      syncPeriod: 0s
    ipvs:
      excludeCIDRs: null
      minSyncPeriod: 0s
      scheduler: ""
      strictARP: false
      syncPeriod: 0s
      tcpFinTimeout: 0s
      tcpTimeout: 0s
      udpTimeout: 0s
    kind: KubeProxyConfiguration
    metricsBindAddress: ""
    mode: ""
    nodePortAddresses: null
      minSyncPeriod: 0s
      syncPeriod: 0s
    ipvs:
      excludeCIDRs: null
      minSyncPeriod: 0s
      scheduler: ""
      strictARP: false
      syncPeriod: 0s
      tcpFinTimeout: 0s
      tcpTimeout: 0s
      udpTimeout: 0s
    kind: KubeProxyConfiguration
    metricsBindAddress: ""
    mode: "ipvs" # 修改此处
...


删除 kube-proxy ,让 Kubernetes 集群自动创建新的 kube-proxy :


kubectl delete pod -l k8s-app=kube-proxy -n kube-system


12.让 Node 节点也能使用 kubectl 命令


默认情况下,只有 Master 节点才有 kubectl 命令,但是有些时候我们也希望在 Node 节点上执行 kubectl 命令:


# 192.168.172.102 和 192.168.172.103 node子节点
mkdir -pv ~/.kube
touch ~/.kube/config


# 192.168.172.101 master节点
scp /etc/kubernetes/admin.conf root@192.168.172.102:~/.kube/config
scp /etc/kubernetes/admin.conf root@192.168.172.103:~/.kube/config


三.Kubernetes 安装 Nginx


部署 Nginx :


kubectl create deployment nginx --image=nginx:1.14-alpine


暴露端口:


kubectl expose deployment nginx --port=80 --type=NodePort


查看服务状态:


kubectl get pods,svc


6defa26fb9bb4cbdbda25201b9c1947c.png


四.安装命令行自动补全功能


官方文档


# 安装 
yum -y install bash-completion


# 自动补全 
echo 'source <(kubectl completion bash)' >>~/.bashrc 
kubectl completion bash >/etc/bash_completion.d/kubectl
# 全局
kubectl completion bash | sudo tee /etc/bash_completion.d/kubectl > /dev/null
source /usr/share/bash-completion/bash_completion


到这里,k8s集群的搭建就告一段落了,我可能会很长一段时间暂停学习k8s,决定再把其他的一些基础知识再巩固一下,再见。


相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务&nbsp;ACK 容器服务&nbsp;Kubernetes&nbsp;版(简称&nbsp;ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情:&nbsp;https://www.aliyun.com/product/kubernetes
相关文章
|
1月前
|
Kubernetes Ubuntu Shell
wsl Ubuntu环境 创建 k8s集群
wsl Ubuntu环境 创建 k8s集群
|
1月前
|
Kubernetes Cloud Native 容器
完全免费的K8S学习平台:在线集群环境助力你的云原生之路!
完全免费的K8S学习平台:在线集群环境助力你的云原生之路!
48 1
|
2月前
|
JSON Kubernetes Linux
Linux环境签发CA证书和K8s需要的证书
Linux环境签发CA证书和K8s需要的证书
29 0
|
2月前
|
Kubernetes Java 测试技术
ChaosBlade常见问题之在K8s环境下演练cpu满载报错如何解决
ChaosBlade 是一个开源的混沌工程实验工具,旨在通过模拟各种常见的硬件、软件、网络、应用等故障,帮助开发者在测试环境中验证系统的容错和自动恢复能力。以下是关于ChaosBlade的一些常见问题合集:
25 0
|
4月前
|
Kubernetes Linux 应用服务中间件
Kubernetes—集群环境搭建
Kubernetes—集群环境搭建
82 0
|
9月前
|
Dragonfly 缓存 Kubernetes
Dragonfly 在 Kubernetes 多集群环境下分发文件和镜像
Dragonfly 在 Kubernetes 多集群环境下分发文件和镜像
Dragonfly 在 Kubernetes 多集群环境下分发文件和镜像
|
2天前
|
存储 数据采集 Kubernetes
一文详解K8s环境下Job类日志采集方案
本文介绍了K8s中Job和Cronjob控制器用于非常驻容器编排的场景,以及Job容器的特点:增删频率高、生命周期短和突发并发大。文章重点讨论了Job日志采集的关键考虑点,包括容器发现速度、开始采集延时和弹性支持,并对比了5种采集方案:DaemonSet采集、Sidecar采集、ECI采集、同容器采集和独立存储采集。对于短生命周期Job,建议使用Sidecar或ECI采集,通过调整参数确保数据完整性。对于突发大量Job,需要关注服务端资源限制和采集容器的资源调整。文章总结了不同场景下的推荐采集方案,并指出iLogtail和SLS未来可能的优化方向。
|
25天前
|
存储 运维 Kubernetes
构建高效稳定的容器化运维环境:Docker与Kubernetes的协同
【4月更文挑战第14天】 在当今快速发展的云计算时代,容器技术以其轻量级、快速部署和易于管理的优势,成为现代应用交付的标准。本文将深入探讨如何通过Docker和Kubernetes的整合使用来构建一个高效且稳定的容器化运维环境。我们将分析Docker容器的基本概念,探索Kubernetes在容器编排方面的强大能力,以及两者结合所带来的益处。文章还将讨论在实际部署中可能遇到的挑战,并提出相应的解决方案。
|
2月前
|
Kubernetes 容器
搭建K8S环境单机K8S集群
搭建K8S环境单机K8S集群
33 0
|
4月前
|
存储 Kubernetes Docker
使用sealos快速搭建K8s集群环境
使用sealos快速搭建K8s集群环境
128 2