一篇文章讲明白k8s网络插件flannel模式剖析:vxlan、host

本文涉及的产品
容器服务 Serverless 版 ACK Serverless,952元额度 多规格
容器服务 Serverless 版 ACK Serverless,317元额度 多规格
简介: 一篇文章讲明白k8s网络插件flannel模式剖析:vxlan、host

跨节点通讯,需要通过NAT,即需要做源地址转换。

k8s网络通信:

  1) 容器间通信:同一个pod内的多个容器间的通信,通过lo即可实现;

2) pod之间的通信,pod ip pod ip,pod和pod之间要不经过任何转换即可通信;

3) pod和service通信:pod ip cluster ip(即service ip)pod ip,他们通过iptables或ipvs实现通信,另外大家要注意ipvs取代不了iptables,因为ipvs只能做负载均衡,而做不了nat转换;

4) Service与集群外部客户端的通信

【root@master pki】# kubectl get configmap -n kube-system

NAME DATA AGE

coredns 1 22d

extension-apiserver-authentication 6 22d

kube-flannel-cfg 2 22d

kube-proxy 2 22d

kubeadm-config 1 22d

kubelet-config-1.11 1 22d

kubernetes-dashboard-settings 1 9h

【root@master pki】# kubectl get configmap kube-proxy -o yaml -n kube-system|grep mode

mode: ""

看到mode是空的,我们把它改为ipvs就可以了。

k8s要靠CNI接口接入其他插件来实现网络通讯。目前比较流行的插件有flannel,callco,canel,kube-router。

这些插件使用的解决方案都如下:

1)虚拟网桥,虚拟网卡,多个容器共用一个虚拟网卡进行通信;

2)多路复用:MacVLAN,多个容器共用一个物理网卡进行通信;

3)硬件交换:SR-LOV,一个物理网卡可以虚拟出多个接口,这个性能最好。

CNI插件存放位置

【root@master ~】# cat /etc/cni/net.d/10-flannel.conflist

{

"name": "cbr0",

"plugins": 【

{

"type": "flannel",

"delegate": {

"hairpinMode": true,

"isDefaultGateway": true

}

},

{

"type": "portmap",

"capabilities": {

"portMappings": true

}

}

}

flanel只支持网络通讯,但是不支持网络策略。

callco网络通讯和网络策略都支持。

canel:flanel+callco合起来的功能。

我们可以部署flanel提供网络通讯,再部署一个callco只提供网络策略。而不用canel。

mtu:是指一种通信协议的某一层上面所能通过的最大数据包大小。

【root@master ~】# ifconfig

cni0: flags=4163 mtu 1450

inet 10.244.0.1 netmask 255.255.255.0 broadcast 0.0.0.0

inet6 fe80::4097:d5ff:fe28:6b64 prefixlen 64 scopeid 0x20

ether 0a:58:0a:f4:00:01 txqueuelen 1000 (Ethernet)

RX packets 1609844 bytes 116093191 (110.7 MiB)

RX errors 0 dropped 0 overruns 0 frame 0

TX packets 1632952 bytes 577989701 (551.2 MiB)

TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

docker0: flags=4099 mtu 1500

inet 172.17.0.1 netmask 255.255.0.0 broadcast 172.17.255.255

ether 02:42:83:f8:b8:ff txqueuelen 0 (Ethernet)

RX packets 0 bytes 0 (0.0 B)

RX errors 0 dropped 0 overruns 0 frame 0

TX packets 0 bytes 0 (0.0 B)

TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

ens192: flags=4163 mtu 1500

inet 172.16.1.100 netmask 255.255.255.0 broadcast 172.16.1.255

inet6 fe80::9cf3:d9de:59f:c320 prefixlen 64 scopeid 0x20

inet6 fe80::5707:6115:267b:bff5 prefixlen 64 scopeid 0x20

inet6 fe80::e34:f952:2859:4c69 prefixlen 64 scopeid 0x20

ether 00:50:56:a2:4e:cb txqueuelen 1000 (Ethernet)

RX packets 5250378 bytes 704067861 (671.4 MiB)

RX errors 139 dropped 190 overruns 0 frame 0

TX packets 4988169 bytes 4151179300 (3.8 GiB)

TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

flannel.1: flags=4163 mtu 1450

inet 10.244.0.0 netmask 255.255.255.255 broadcast 0.0.0.0

inet6 fe80::a82c:bcff:fef8:895c prefixlen 64 scopeid 0x20

ether aa:2c:bc:f8:89:5c txqueuelen 0 (Ethernet)

RX packets 51 bytes 3491 (3.4 KiB)

RX errors 0 dropped 0 overruns 0 frame 0

TX packets 53 bytes 5378 (5.2 KiB)

TX errors 0 dropped 10 overruns 0 carrier 0 collisions 0

lo: flags=73 mtu 65536

inet 127.0.0.1 netmask 255.0.0.0

inet6 ::1 prefixlen 128 scopeid 0x10

loop txqueuelen 1 (Local Loopback)

RX packets 59118846 bytes 15473986573 (14.4 GiB)

RX errors 0 dropped 0 overruns 0 frame 0

TX packets 59118846 bytes 15473986573 (14.4 GiB)

TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

veth6ec94aab: flags=4163 mtu 1450

inet6 fe80::487d:5bff:fef7:484d prefixlen 64 scopeid 0x20

ether 4a:7d:5b:f7:48:4d txqueuelen 0 (Ethernet)

RX packets 88112 bytes 19831802 (18.9 MiB)

RX errors 0 dropped 0 overruns 0 frame 0

TX packets 105718 bytes 13343894 (12.7 MiB)

TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

vethf703483a: flags=4163 mtu 1450

inet6 fe80::b06a:eaff:fec3:33a8 prefixlen 64 scopeid 0x20

ether b2:6a:ea:c3:33:a8 txqueuelen 0 (Ethernet)

RX packets 760882 bytes 59400960 (56.6 MiB)

RX errors 0 dropped 0 overruns 0 frame 0

TX packets 763263 bytes 282299805 (269.2 MiB)

TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

vethff579703: flags=4163 mtu 1450

inet6 fe80::d82f:37ff:fe9a:b6d0 prefixlen 64 scopeid 0x20

ether da:2f:37:9a:b6:d0 txqueuelen 0 (Ethernet)

RX packets 760850 bytes 59398245 (56.6 MiB)

RX errors 0 dropped 0 overruns 0 frame 0

TX packets 764016 bytes 282349248 (269.2 MiB)

TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

通过ifconfig命令,我们可以看到flannel.1的地址是10.244.0.0,子网掩码是255.255.255.255,mtu是1450,mtu要留出一部分做封装叠加,额外开销使用。

cni0只有在pod运行时才会出现。

两个节点上的pod可以借助flannel隧道进行通信。默认使用的VxLAN协议,因为它有额外开销,所以性能有点低。

flannel第二种协议叫host-gw(host gateway),即Node节点把自己的网络接口当做pod的网关使用,从而使不同节点上的node进行通信,这个性能比VxLAN高,因为它没有额外开销。不过他有个缺点, 就是各node节点必须在同一个网段中 。

另外,如果两个pod所在节点在同一个网段中 ,可以让VxLAN也支持host-gw的功能, 即直接通过物理网卡的网关路由转发,而不用隧道flannel叠加,从而提高了VxLAN的性能,这种flannel的功能叫directrouting。

【root@master ~】# kubectl get daemonset -n kube-system

NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE

kube-flannel-ds-amd64 3 3 3 3 3 beta.kubernetes.io/arch=amd64 22d

【root@master ~】# kubectl get pods -n kube-system -o wide

NAME READY STATUS RESTARTS AGE IP //代码效果参考:http://www.zidongmutanji.com/bxxx/451004.html

NODE

kube-flannel-ds-amd64-6zqzr 1/1 Running 8 22d 172.16.1.100 master

kube-flannel-ds-amd64-7qtcl 1/1 Running 7 22d 172.16.1.101 node1

kube-flannel-ds-amd64-kpctn 1/1 Running 6 22d 172.16.1.102 node2

看到flannel是以pod的daemonset控制器形式运行的(其实flannel还可以以守护进程的方式运行)。

【root@master ~】# kubectl get configmap -n kube-system

NAME DATA AGE

kube-flannel-cfg 2 22d

【root@master ~】#kubectl get configmap -n kube-system kube-flannel-cfg -o json -n kube-system|grep Backend

\\"10.244.0.0/16\\",\n \\"Backend\\": {\n \\"Type\\": \\"vxlan\

flannel的配置参数:

1、network :flannel使用的CIDR格式的网络地址,用于为pod配置网络功能。

1)10.244.0.0/16--->

master: 10.244.0.0./24

//代码效果参考:http://www.zidongmutanji.com/zsjx/16955.html

node01: 10.244.1.0/24

....

node255: 10.244.255.0/24

可以支持255个节点

2)10.0.0.0/8

10.0.0.0/24

...

10.255.255.0/24

可以支持6万多个节点

2、SubnetLen :把network切分为子网供各节点使用时,使用多长的掩码进行切分,默认为24位;

3、SubnetMin :指明子网中的地址段最小多少可以分给子网使用,比如可以限制10.244.10.0/24,这样0~9就不让用;

4、SubnetMax :表示最多使用多少个,比如10.244.100.0/24

5、Backend: Vxlan,host-gw,udp(最慢)

flannel支持多种后端:

1.Vxlan

1.1 vxlan

1.2 Dirextrouting

2.host-gw:Host Gateway #不推荐,只能在二层网络中,不支持跨网络,如果有成千上万的Pod,容易产生广播风暴

3.UDP:性能差

【root@master ~】# kubectl get pods -o wide

NAME READY STATUS RESTARTS AGE IP NODE

myapp-deploy-69b47bc96d-79fqh 1/1 Running 4 7//代码效果参考:http://www.zidongmutanji.com/bxxx/242734.html

d 10.244.1.97 node1

myapp-deploy-69b47bc96d-tc54k 1/1 Running 4 7d 10.244.2.88 node2

【root@master ~】# kubectl exec -it myapp-deploy-69b47bc96d-79fqh -- /bin/sh

/ # ping 10.244.2.88 #ping对方Node上容器的ip

PING 10.244.2.88 (10.244.2.88): 56 data bytes

64 bytes from 10.244.2.88: seq=0 ttl=62 time=0.459 ms

64 bytes from 10.244.2.88: seq=0 ttl=62 time=0.377 ms

64 bytes from 10.244.2.88: seq=1 ttl=62 time=0.252 ms

64 bytes from 10.244.2.88: seq=2 ttl=62 time=0.261 ms

在其他节点上抓包,发现根本就在ens192上抓不到包。

【root@master ~】# tcpdump -i ens192 -nn icmp

【root@master ~】# yum install bridge-utils -y

【root@master ~】# brctl show docker0

bridge namebridge idSTP enabledinterfaces

docker08000.024283f8b8ffno

【root@master ~】# brctl show cni0

bridge namebridge idSTP enabledinterfaces

cni08000.0a580af40001noveth6ec94aab

vethf703483a

vethff579703

可以看到veth这些接口都是桥接到cni0上的。

brctl show表示查看已有网桥。

相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
3天前
|
机器学习/深度学习 JSON Kubernetes
一篇文章讲明白k8s网络插件flannel模式剖析:vxlan、host
一篇文章讲明白k8s网络插件flannel模式剖析:vxlan、host
|
3天前
|
SDN 虚拟化 网络虚拟化
VXLAN:打破网络边界的虚拟化之光
VXLAN:打破网络边界的虚拟化之光
|
10天前
|
Kubernetes 容器 Perl
019.Kubernetes二进制部署插件dashboard
019.Kubernetes二进制部署插件dashboard
|
29天前
|
Kubernetes 微服务 容器
Aspire项目发布到远程k8s集群
Aspire项目发布到远程k8s集群
380 2
Aspire项目发布到远程k8s集群
|
17天前
|
Kubernetes Cloud Native 微服务
微服务实践之使用 kube-vip 搭建高可用 Kubernetes 集群
微服务实践之使用 kube-vip 搭建高可用 Kubernetes 集群
204 3
|
2天前
|
Kubernetes 网络协议 Docker
k8s 开船记-故障公告:自建 k8s 集群在阿里云上大翻船
k8s 开船记-故障公告:自建 k8s 集群在阿里云上大翻船
|
2天前
|
Kubernetes Ubuntu jenkins
超详细实操教程!在现有K8S集群上安装JenkinsX,极速提升CI/CD体验!
超详细实操教程!在现有K8S集群上安装JenkinsX,极速提升CI/CD体验!
|
3天前
|
Kubernetes 应用服务中间件 nginx
K8s高可用集群二进制部署-V1.20
2.4 部署Etcd集群 以下在节点1上操作,为简化操作,待会将节点1生成的所有文件拷贝到节点2和节点3. 1. 创建工作目录并解压二进制包 mkdir /opt/etcd/{bin,cfg,ssl} -p tar zxvf etcd-v3.4.9-linux-amd64.tar.gz mv etcd-v3.4.9-linux-amd64/{etcd,etcdctl} /opt/etcd/bin/
|
8天前
|
Kubernetes 算法 API
K8S 集群认证管理
【6月更文挑战第22天】Kubernetes API Server通过REST API管理集群资源,关键在于客户端身份认证和授权。
|
19天前
|
Kubernetes 数据处理 调度
天呐!部署 Kubernetes 模式的 Havenask 集群太震撼了!
【6月更文挑战第11天】Kubernetes 与 Havenask 集群结合,打造高效智能的数据处理解决方案。Kubernetes 如指挥家精准调度资源,Havenask 快速响应查询,简化复杂任务,优化资源管理。通过搭建 Kubernetes 环境并配置 Havenask,实现高可扩展性和容错性,保障服务连续性。开发者因此能专注业务逻辑,享受自动化基础设施管理带来的便利。这项创新技术组合引领未来,开启数据处理新篇章。拥抱技术新时代!