【云原生Kubernetes】二进制搭建Kubernetes集群(中)——部署node节点(2)

本文涉及的产品
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
简介: 上一篇中已部署了etcd分布式数据库、master01节点,本文将部署Kubernetes集群中的 worker node 节点和 CNI 网络插件。

附录3:proxy.sh

#!/bin/bash
 #example:proxy.sh 192.168.41.42
 #脚本后跟的位置参数1是node节点的IP地址。
 NODE_ADDRESS=$1
 #创建 kube-proxy 启动参数配置文件
 cat >/opt/kubernetes/cfg/kube-proxy <<EOF
 KUBE_PROXY_OPTS="--logtostderr=true \
 --v=4 \
 --hostname-override=${NODE_ADDRESS} \
 --cluster-cidr=172.17.0.0/16 \
 --proxy-mode=ipvs \
 --kubeconfig=/opt/kubernetes/cfg/kube-proxy.kubeconfig"
 EOF
 #--hostnameOverride: 参数值必须与 kubelet 的值一致,否则 kube-proxy 启动后会找>不到该 Node,从而不会创建任何 ipvs 规则
 #--cluster-cidr:指定 Pod 网络使用的聚合网段,Pod 使用的网段和 apiserver 中指定的 service 的 cluster ip 网段不是同一个网段。 kube-proxy 根据 --cluster-cidr 判断集群内部和外部流量,指定 --cluster-cidr 选项后 kube-proxy 才会对访问 Service IP 的请求做 SNAT,即来自非 Pod 网络的流量被当成外部流量,访问 Service 时需要做 SNAT。
 #--proxy-mode:指定流量调度模式为ipvs模式,可添加--ipvs-scheduler选项指定ipvs调度算法(rr|wrr|lc|wlc|lblc|lblcr|dh|sh|sed|nq)
 #--kubeconfig: 指定连接 apiserver 的 kubeconfig 文件
 #----------------------
 #创建 kube-proxy.service 服务管理文件
 cat >/usr/lib/systemd/system/kube-proxy.service <<EOF
 [Unit]
 Description=Kubernetes Proxy
 After=network.target
 [Service]
 EnvironmentFile=-/opt/kubernetes/cfg/kube-proxy
 ExecStart=/opt/kubernetes/bin/kube-proxy $KUBE_PROXY_OPTS
 Restart=on-failure
 [Install]
 WantedBy=multi-user.target
 EOF
 systemctl daemon-reload
 systemctl enable kube-proxy
 systemctl restart kube-proxy
复制代码


4.3 部署网络组件

网络插件主要两种:Flannel、Calico。安装其中任意一个即可。

我们这里使用方法二,安装Calico网络插件。

方法一:部署Flannel

#--------------在 node01 节点上操作---------------
 #上传 cni-plugins-linux-amd64-v0.8.6.tgz 和 flannel.tar 到 /opt 目录中
 cd /opt/
 docker load -i flannel.tar
 docker images
 #解压
 mkdir /opt/cni/bin
 tar zxvf cni-plugins-linux-amd64-v0.8.6.tgz -C /opt/cni/bin
 #传给node02节点
 scp cni/ flannel.tar root@192.168.41.43:/root/
 docker load -i flannel.tar
 #---------------在 master01 节点上操作-----------------
 #上传 kube-flannel.yml 文件到 /opt/k8s 目录中,部署 CNI 网络
 cd /opt/k8s
 kubectl apply -f kube-flannel.yml 
 kubectl get pods -n kube-system
 NAME                    READY   STATUS    RESTARTS   AGE
 kube-flannel-ds-hjtc7   1/1     Running   0          7s
 kubectl get nodes
 NAME            STATUS   ROLES    AGE   VERSION
 192.168.41.42   Ready    <none>   81m   v1.20.11
复制代码


方法二:部署 Calico

#--------------------在 master01 节点上操作---------------------------------
 #calico.yaml 文件可以直接从网上获取,使用wget下载即可
 #上传 calico.yaml 文件到 /opt/k8s 目录中,部署 CNI 网络
 cd /opt/k8s
 vim calico.yaml
 #修改里面定义Pod网络(CALICO_IPV4POOL_CIDR),要与前面kube-controller-manager配置文件指定的cluster-cidr网段一致
     - name: CALICO_IPV4POOL_CIDR
       value: "10.244.0.0/16"    #默认是192.168.0.0/16,需要改成和kube-controller-manager配置文件指定的cluster-cidr网段一致
 #通过calico.yaml资源清单,使用kubectl apply创建pod,-f指定清单文件
 kubectl apply -f calico.yaml
 #等待1~2分钟,查看pod状态,-n指定命名空间,默认是default命名空间。都是Running状态就OK了。
 kubectl get pods -n kube-system
 NAME                                       READY   STATUS    RESTARTS   AGE
 calico-kube-controllers-659bd7879c-gq5fb   1/1     Running   0          2m53s
 calico-node-dd4gc                          1/1     Running   0          2m53s
 calico-node-rg299                          1/1     Running   0          2m53s
 #再次查看集群的节点信息,都是Ready状态。
 #等 Calico Pod 都 Running,节点也会准备就绪
 kubectl get nodes
 NAME            STATUS   ROLES    AGE   VERSION
 192.168.41.42   Ready    <none>   73m   v1.20.11
 192.168.41.43   Ready    <none>   74m   v1.20.11
 #至此,单master节点k8s集群就部署成功了
复制代码


网络异常,图片无法展示
|


网络异常,图片无法展示
|


网络异常,图片无法展示
|


网络异常,图片无法展示
|


4.4 部署 CoreDNS

CoreDNS:可以为集群中的 service 资源创建一个域名与 IP 的对应关系解析。

service发现是k8s中的一个重要机制,其基本功能为:在集群内通过服务名对服务进行访问,即需要完成从服务名到ClusterIP的解析。

k8s主要有两种service发现机制:环境变量和DNS。没有DNS服务的时候,k8s会采用环境变量的形式,但一旦有多个service,环境变量会变复杂,为解决该问题,我们使用DNS服务。

#---------------1、在所有 node 节点上操作-----------------
 #上传 coredns.tar 到 /opt 目录中,之后导入镜像
 cd /opt
 docker load -i coredns.tar
 #---------------2、在 master01 节点上操作-----------------
 #上传 coredns.yaml 文件到 /opt/k8s 目录中,部署 CoreDNS 
 cd /opt/k8s
 #通过coredns.yaml资源清单,使用kubectl apply创建该pod,-f指定清单文件
 kubectl apply -f coredns.yaml
 #等待1~2分钟,查看pod状态,-n指定命名空间,默认是default命名空间。coredns是Running状态就OK了。
 kubectl get pods -n kube-system 
 NAME                              READY   STATUS    RESTARTS   AGE
 coredns-6954c77b9b-r4lc6          1/1     Running   0          5m21s
 #DNS 解析测试
 kubectl run -it --rm dns-test --image=busybox:1.28.4 sh
 If you don't see a command prompt, try pressing enter.
 / # nslookup kubernetes
 Server:    10.0.0.2
 Address 1: 10.0.0.2 kube-dns.kube-system.svc.cluster.local
 Name:      kubernetes
 Address 1: 10.0.0.1 kubernetes.default.svc.cluster.local
 / #
复制代码


1、在所有 node 节点上操作

网络异常,图片无法展示
|


2、在 master01 节点上操作

网络异常,图片无法展示
|


网络异常,图片无法展示
|


五、CNI网络插件介绍

5.1 Kubernetes的三种网络

网络异常,图片无法展示
|

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
5天前
|
存储 Kubernetes 开发者
容器化时代的领航者:Docker 和 Kubernetes 云原生时代的黄金搭档
Docker 是一种开源的应用容器引擎,允许开发者将应用程序及其依赖打包成可移植的镜像,并在任何支持 Docker 的平台上运行。其核心概念包括镜像、容器和仓库。镜像是只读的文件系统,容器是镜像的运行实例,仓库用于存储和分发镜像。Kubernetes(k8s)则是容器集群管理系统,提供自动化部署、扩展和维护等功能,支持服务发现、负载均衡、自动伸缩等特性。两者结合使用,可以实现高效的容器化应用管理和运维。Docker 主要用于单主机上的容器管理,而 Kubernetes 则专注于跨多主机的容器编排与调度。尽管 k8s 逐渐减少了对 Docker 作为容器运行时的支持,但 Doc
43 5
容器化时代的领航者:Docker 和 Kubernetes 云原生时代的黄金搭档
|
1月前
|
Kubernetes Cloud Native 微服务
云原生入门与实践:Kubernetes的简易部署
云原生技术正改变着现代应用的开发和部署方式。本文将引导你了解云原生的基础概念,并重点介绍如何使用Kubernetes进行容器编排。我们将通过一个简易的示例来展示如何快速启动一个Kubernetes集群,并在其上运行一个简单的应用。无论你是云原生新手还是希望扩展现有知识,本文都将为你提供实用的信息和启发性的见解。
|
1月前
|
Kubernetes Cloud Native 云计算
云原生入门:Kubernetes 和容器化基础
在这篇文章中,我们将一起揭开云原生技术的神秘面纱。通过简单易懂的语言,我们将探索如何利用Kubernetes和容器化技术简化应用的部署和管理。无论你是初学者还是有一定经验的开发者,本文都将为你提供一条清晰的道路,帮助你理解和运用这些强大的工具。让我们从基础开始,逐步深入了解,最终能够自信地使用这些技术来优化我们的工作流程。
|
存储 Kubernetes API
在K8S集群中,如何正确选择工作节点资源大小? 2
在K8S集群中,如何正确选择工作节点资源大小?
|
Kubernetes Serverless 异构计算
基于ACK One注册集群实现IDC中K8s集群以Serverless方式使用云上CPU/GPU资源
在前一篇文章《基于ACK One注册集群实现IDC中K8s集群添加云上CPU/GPU节点》中,我们介绍了如何为IDC中K8s集群添加云上节点,应对业务流量的增长,通过多级弹性调度,灵活使用云上资源,并通过自动弹性伸缩,提高使用率,降低云上成本。这种直接添加节点的方式,适合需要自定义配置节点(runtime,kubelet,NVIDIA等),需要特定ECS实例规格等场景。同时,这种方式意味您需要自行
基于ACK One注册集群实现IDC中K8s集群以Serverless方式使用云上CPU/GPU资源
|
Kubernetes API 调度
在K8S集群中,如何正确选择工作节点资源大小?1
在K8S集群中,如何正确选择工作节点资源大小?
|
弹性计算 运维 Kubernetes
本地 IDC 中的 K8s 集群如何以 Serverless 方式使用云上计算资源
本地 IDC 中的 K8s 集群如何以 Serverless 方式使用云上计算资源
|
Kubernetes Ubuntu Shell
shell 脚本实现 k8s 集群环境下指定 ns 资源的 yaml 文件备份
在基于 `k8s` 平台的容器化部署环境中,有时候需要快速的实现部署文件的迁移备份,当 `k8s` 平台部署一个 `app` 时,都会相应的产生一堆 `yaml` 文件,如果 `yaml` 文件数量较少,我们可以人工手动的方式进行拷贝,但是当 `yaml` 文件数量多,并且该 `k8s` 平台部署了多个 `app` 时,如果在采用...
582 0
shell 脚本实现 k8s 集群环境下指定 ns 资源的 yaml 文件备份
|
Prometheus Kubernetes 监控
k8s集群监控(2)-部署kube-state-metrics对资源对象监控
kube-state-metrics对k8s集群中的资源对象监控,包括 pod 、 deployment, service
k8s集群监控(2)-部署kube-state-metrics对资源对象监控
|
Kubernetes 网络协议 前端开发
使用 C# 开发 Kubernetes 组件,获取集群资源信息
使用 C# 开发 Kubernetes 组件,获取集群资源信息
282 0
使用 C# 开发 Kubernetes 组件,获取集群资源信息

热门文章

最新文章