【云原生Kubernetes系列第五篇】kubeadm v1.20 部署K8S 集群架构(人生这道选择题,总会有遗憾)(二)

简介: 【云原生Kubernetes系列第五篇】kubeadm v1.20 部署K8S 集群架构(人生这道选择题,总会有遗憾)(二)

五、部署K8S集群


#查看初始化需要的镜像
kubeadm config images list
#在 master 节点上传所需要的镜像这里我使用一下载的镜像文件 v1.20.11.zip 压缩包至 /opt 目录
cd /opt
unzip v1.20.11.zip
#批量加载镜像文件
cd v1.20.11/
for i in $(ls *.tar); do docker load -i $i; done  
#node节点操作
cd /opt
unzip v1.20.11.zip
for i in $(ls *.tar); do docker load -i $i; done



5.1 初始化kubeadm

方法一:
#生成kubeadm-config.yaml配置文件
kubeadm config print init-defaults > /opt/kubeadm-config.yaml
cd /opt
vim kubeadm-config.yaml
#--12行--通告地址
advertiseAddress: 192.168.109.131
#--34行--修改k8s版本号默认为1.20.0
kubernetesVersion: v1.20.11
#--37行--指定service的子网段
serviceSubnet: 10.96.0.0/16
#--38--添加pod的cni网络插件的网段这里我用的flannel模式如果用的calico模式网段则是192.168.0.0/16
podSubnet: 10.244.0.0/16
#--40--行添加kube-proxy的流量调度模式默认为iptables这里用ipvs
---
apiVersion: kubeproxy.config.k8s.io/v1alpha1
kind: KubeProxyConfiguration
mode: ipvs
#--experimental-upload-certs 参数可以在后续执行加入节点时自动分发证书文件,k8sV1.16版本开始替换为 --upload-certs 、tee kubeadm-init.log 用以输出日志
kubeadm init --config=kubeadm-config.yaml --upload-certs | tee kubeadm-init.log
#master节点查看集群状态
kubectl get node









#查看 kubeadm-init 日志此时还没有日志所以查看不到
less kubeadm-init.log
#kubernetes配置文件目录
ls /etc/kubernetes/
#存放ca等证书和密码的目录
ls /etc/kubernetes/pki

方法二:
kubeadm init \
--apiserver-advertise-address=192.168.239.10 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version=v1.20.11 \
--service-cidr=10.96.0.0/16 \
--pod-network-cidr=10.244.0.0/16 \
--token-ttl=0
-----------------------------------------------------------------------------------------
初始化集群需使用kubeadm init命令,可以指定具体参数初始化,也可以指定配置文件初始化。
可选参数:
--apiserver-advertise-address:apiserver通告给其他组件的IP地址,一般应该为Master节点的用于集群内部通信的IP地址,0.0.0.0表示节点上所有可用地址
--apiserver-bind-port:apiserver的监听端口,默认是6443
--cert-dir:通讯的ssl证书文件,默认/etc/kubernetes/pki
--control-plane-endpoint:控制台平面的共享终端,可以是负载均衡的ip地址或者dns域名,高可用集群时需要添加
--image-repository:拉取镜像的镜像仓库,默认是k8s.gcr.io
--kubernetes-version:指定kubernetes版本
--pod-network-cidr:pod资源的网段,需与pod网络插件的值设置一致。通常,Flannel网络插件的默认为10.244.0.0/16,Calico插件的默认值为192.168.0.0/16;
--service-cidr:service资源的网段
--service-dns-domain:service全域名的后缀,默认是cluster.local
--token-ttl: 默认token的有效期为24小时,如果不想过期,可以加上--token-ttl=0 这个参数
-----------------------------------------------------------------------------------------
#方法二初始化后需要修改 kube-proxy 的 configmap,开启 ipvs
kubectl edit cm kube-proxy -n=kube-system
#修改mode: ipvs
#设定kubectl
#kubectl需经由API server认证及授权后方能执行相应的管理操作,kubeadm 部署的集群为其生成了一个具有管理员权限的认证配置文件 /etc/kubernetes/admin.conf,它可由 kubectl 通过默认的 “$HOME/.kube/config” 的路径进行加载。
mkdir -p $HOME/.kube
cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
chown $(id -u):$(id -g) $HOME/.kube/config
#如果 kubectl get cs 发现集群不健康,更改以下两个文件,搜索 --port=0,把这一行注释掉
vim /etc/kubernetes/manifests/kube-scheduler.yaml 
- --port=0      # 搜索port=0,把这一行注释掉
vim /etc/kubernetes/manifests/kube-controller-manager.yaml
- --port=0      # 搜索port=0,把这一行注释掉
systemctl restart kubelet


5.2 所有节点部署网络插件flannel

方法一:
#master 节点上传 kube-flannel.yml及flannel.tar 文件到opt目录
cd /opt
#将镜像文件加载到本地
docker load -i flannel.tar 
#将镜像文件传输到其他node节点
scp flannel.tar node01:/opt
scp flannel.tar node02:/opt
#所有node节点执行将镜像文件加载到本地
docker load -i flannel.tar
#在 master 节点创建 flannel 资源
kubectl apply -f kube-flannel.yml 
方法二:
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
//在 node 节点上执行 kubeadm join 命令加入群集
kubeadm join 192.168.80.10:6443 --token rc0kfs.a1sfe3gl4dvopck5 \
    --discovery-token-ca-cert-hash sha256:864fe553c812df2af262b406b707db68b0fd450dc08b34efb73dd5a4771d37a2




#在master节点查看节点状态
kubectl get nodes
#查看所有命名空间
kubectl get pods -A


#测试 pod 资源创建
kubectl create deployment nginx --image=nginx
kubectl get pods -o wide
NAME                     READY   STATUS    RESTARTS   AGE     IP           NODE     NOMINATED NODE   READINESS GATES
nginx-6799fc88d8-hj9wv   1/1     Running   0          3m49s   10.244.1.2   node01   <none>           <none>


#暴露端口提供服务
kubectl expose deployment nginx --port=80 --type=NodePort
kubectl get svc  #查看资源暴露端口
NAME         TYPE        CLUSTER-IP     EXTERNAL-IP   PORT(S)        AGE
kubernetes   ClusterIP   10.96.0.1      <none>        443/TCP        154m
nginx        NodePort    10.96.58.254   <none>        80:32084/TCP   14s


5.3 测试访问

curl http://node01:32084


web访问http://192.168.109.132:32084



#扩展3个副本
kubectl scale deployment nginx --replicas=3
kubectl get pods -o wide


5.4 部署 Dashboard

#master节点操作
#上传dashboard.tar和metrics-scraper.tar镜像文件这两个镜像文件不上传也没事会自动下载
#dashboard.tar #供仪表板使用
#metrics-scraper.tar #收集k8s资源的状态
#加载镜像文件
docker load -i dashboard.tar
docker load -i metrics-scraper.tar
#将镜像文件传输到其他node节点
scp dashboard.tar metrics-scraper.tar node01:/opt
scp dashboard.tar metrics-scraper.tar node02:/opt


#所有node节点执行
docker load -i dashboard.tar
docker load -i metrics-scraper.tar



#master节点上传 recommended.yaml 文件到 /opt/s 目录中,部署 CoreDNS 
cd /opt/
vim recommended.yaml
#默认Dashboard只能集群内部访问,修改Service为NodePort类型,暴露到外部:
kind: Service
apiVersion: v1
metadata:
  labels:
    k8s-app: kubernetes-dashboard
  name: kubernetes-dashboard
  namespace: kubernetes-dashboard
spec:
  ports:
   - port: 443
     targetPort: 8443
     nodePort: 30001     #添加
     type: NodePort          #添加
     selector:
         k8s-app: kubernetes-dashboard
kubectl apply -f recommended.yaml     #配置资源
kubectl get pods -n kubernetes-dashboard      #指定命名空间查看
#使用输出的token登录Dashboard
https:/192.168.109.133:30001


#创建service account并绑定默认cluster-admin管理员集群角色
kubectl create serviceaccount dashboard-admin -n kube-system  #给命名空间创建用户
kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin    #绑定将用户集群角色为管理员
kubectl get secret -n kube-system |grep dashboard #查看命名空间
kubectl describe secret dashboard-admin-token-bfmq5 -n kube-system #查看详细信息



如果出现 configmaps is forbidden: User “system:anonymous” cannot list resource “configmaps” in API group “” in the namespace “default”


执行一下命令

kubectl create clusterrolebinding test:anonymous --clusterrole=cluster-admin --user=system:anonymous
相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务&nbsp;ACK 容器服务&nbsp;Kubernetes&nbsp;版(简称&nbsp;ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情:&nbsp;https://www.aliyun.com/product/kubernetes
目录
相关文章
|
20小时前
|
存储 运维 监控
Kubernetes 集群的持续监控与性能优化策略
【5月更文挑战第11天】在微服务架构日益普及的当下,Kubernetes 已成为容器编排的事实标准。随着其在不同规模企业的广泛采用,如何确保 Kubernetes 集群的高效稳定运行变得至关重要。本文将探讨一套系统的 Kubernetes 集群监控方法,并结合实践经验分享针对性能瓶颈的优化策略。通过实时监控、日志分析与定期审计的结合,旨在帮助运维人员快速定位问题并提出解决方案,从而提升系统的整体表现。
|
1天前
|
Cloud Native 安全 云计算
什么是云原生架构,我们该如何做好云原生安全,引领云计算时代的应用程序革新
云原生架构,基于云计算设计理念,强调应用在云环境中设计、构建和运行,利用容器化、微服务、自动化管理和持续交付实现灵活、可扩展和高效。其优势包括高可扩展性、可伸缩性、高效性、灵活性、可靠性和成本效益。应用场景广泛,如电商、金融和物联网。构建关键要素包括容器化、微服务、自动化管理和持续交付。保障安全,需重视容器安全,采用如德迅蜂巢·云原生安全平台等解决方案。云原生正引领应用程序革新,成为现代应用构建首选。
|
1天前
|
Kubernetes Linux Docker
Kubernetes详解(四)——基于kubeadm的Kubernetes部署
Kubernetes详解(四)——基于kubeadm的Kubernetes部署
12 2
|
1天前
|
Cloud Native Devops 持续交付
构建未来:云原生架构在企业数字化转型中的关键作用
【5月更文挑战第10天】 随着企业加速其数字化转型的步伐,云原生架构已成为实现敏捷性、可扩展性和创新的关键驱动力。本文探讨了云原生技术的兴起背景、核心技术组件以及如何通过这些技术推动企业IT基础设施的现代化。文章重点分析了容器化、微服务、持续集成/持续部署(CI/CD)和DevOps文化对于构建灵活且高效的云环境的重要性,并提供了实施云原生策略的实用建议。通过深入分析,本文旨在为决策者提供一个清晰的指南,以利用云原生架构优化其业务操作并保持竞争优势。
7 0
|
2天前
|
Cloud Native 安全 持续交付
云原生架构的未来展望
【5月更文挑战第9天】本文将探讨云原生架构的发展趋势,包括其优势、挑战以及未来的发展方向。云原生架构以其灵活性、可扩展性和高效性在企业中得到了广泛的应用。然而,随着技术的发展和业务需求的变化,云原生架构也面临着一些挑战。本文将深入分析这些挑战,并提出相应的解决策略。
|
2天前
|
Cloud Native API 开发者
构建未来:云原生架构在企业数字化转型中的关键角色
【5月更文挑战第9天】 随着企业加速迈向数字化时代,传统的IT架构已不足以支撑快速变化的市场需求。本文深入探讨了云原生架构如何成为推动企业敏捷性、可扩展性和创新能力的关键因素。通过分析微服务、容器化、持续集成与持续部署(CI/CD)等核心技术的实践应用,揭示了云原生技术如何助力企业实现真正的业务和技术一体化,以及在竞争激烈的市场中保持领先地位。
|
2天前
|
Kubernetes Java API
Kubernetes详解(三)——Kubernetes集群组件
Kubernetes详解(三)——Kubernetes集群组件
13 1
|
2天前
|
运维 Cloud Native 持续交付
构建未来:云原生架构在现代企业中的应用与挑战
【5月更文挑战第9天】 随着数字化转型的浪潮席卷全球,企业正迅速采纳云原生技术以实现敏捷性、可扩展性和弹性。本文深入探讨了云原生架构的关键组件,包括容器化、微服务、持续集成/持续部署(CI/CD)和DevOps文化,并分析了这些技术如何帮助企业加速产品上市时间,提高运营效率,并最终实现业务目标。同时,文章也识别了企业在采纳云原生实践中可能面临的挑战,如安全性考量、团队技能提升和复杂的网络管理,并提出了相应的解决方案和最佳实践。
|
4天前
|
Cloud Native 持续交付 开发者
探索云原生架构的未来之路
【5月更文挑战第7天】 在数字化转型的浪潮中,云原生技术以其独特的敏捷性、可扩展性和弹性成为企业IT战略的关键组成部分。本文将深入剖析云原生的核心概念,探讨其在现代软件开发和运维中的应用,并预测云原生发展的潜在趋势。通过分析容器化、微服务、持续集成/持续部署(CI/CD)等关键技术的实践案例,揭示云原生如何推动企业快速响应市场变化、优化资源利用和提升服务质量。
|
4天前
|
运维 Cloud Native 持续交付
构建未来:云原生架构在企业数字化转型中的关键作用
【5月更文挑战第7天】 随着企业加速其数字化转型的步伐,云原生架构已成为推动创新及实现敏捷性的重要驱动力。本文将探讨云原生技术的基本原理,分析其在现代企业中的应用,并讨论如何借助云原生方法提升业务的弹性、可扩展性和效率。通过案例研究和最佳实践的分享,我们揭示了云原生解决方案如何助力企业在竞争激烈的市场中保持领先。

热门文章

最新文章