一篇文章讲明白k8s网络插件flannel模式剖析:vxlan、host

本文涉及的产品
容器服务 Serverless 版 ACK Serverless,952元额度 多规格
容器服务 Serverless 版 ACK Serverless,317元额度 多规格
简介: 一篇文章讲明白k8s网络插件flannel模式剖析:vxlan、host

跨节点通讯,需要通过NAT,即需要做源地址转换。

k8s网络通信:

  1) 容器间通信:同一个pod内的多个容器间的通信,通过lo即可实现;

2) pod之间的通信,pod ip pod ip,pod和pod之间要不经过任何转换即可通信;

3) pod和service通信:pod ip cluster ip(即service ip)pod ip,他们通过iptables或ipvs实现通信,另外大家要注意ipvs取代不了iptables,因为ipvs只能做负载均衡,而做不了nat转换;

4) Service与集群外部客户端的通信

【root@master pki】# kubectl get configmap -n kube-system

NAME DATA AGE

coredns 1 22d

extension-apiserver-authentication 6 22d

kube-flannel-cfg 2 22d

kube-proxy 2 22d

kubeadm-config 1 22d

kubelet-config-1.11 1 22d

kubernetes-dashboard-settings 1 9h

【root@master pki】# kubectl get configmap kube-proxy -o yaml -n kube-system|grep mode

mode: ""

看到mode是空的,我们把它改为ipvs就可以了。

k8s要靠CNI接口接入其他插件来实现网络通讯。目前比较流行的插件有flannel,callco,canel,kube-router。

这些插件使用的解决方案都如下:

1)虚拟网桥,虚拟网卡,多个容器共用一个虚拟网卡进行通信;

2)多路复用:MacVLAN,多个容器共用一个物理网卡进行通信;

3)硬件交换:SR-LOV,一个物理网卡可以虚拟出多个接口,这个性能最好。

CNI插件存放位置

【root@master ~】# cat /etc/cni/net.d/10-flannel.conflist

{

"name": "cbr0",

"plugins": 【

{

"type": "flannel",

"delegate": {

"hairpinMode": true,

"isDefaultGateway": true

}

},

{

"type": "portmap",

"capabilities": {

"portMappings": true

}

}

}

flanel只支持网络通讯,但是不支持网络策略。

callco网络通讯和网络策略都支持。

canel:flanel+callco合起来的功能。

我们可以部署flanel提供网络通讯,再部署一个callco只提供网络策略。而不用canel。

mtu:是指一种通信协议的某一层上面所能通过的最大数据包大小。

【root@master ~】# ifconfig

cni0: flags=4163 mtu 1450

inet 10.244.0.1 netmask 255.255.255.0 broadcast 0.0.0.0

inet6 fe80::4097:d5ff:fe28:6b64 prefixlen 64 scopeid 0x20

ether 0a:58:0a:f4:00:01 txqueuelen 1000 (Ethernet)

RX packets 1609844 bytes 116093191 (110.7 MiB)

RX errors 0 dropped 0 overruns 0 frame 0

TX packets 1632952 bytes 577989701 (551.2 MiB)

TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

docker0: flags=4099 mtu 1500

inet 172.17.0.1 netmask 255.255.0.0 broadcast 172.17.255.255

ether 02:42:83:f8:b8:ff txqueuelen 0 (Ethernet)

RX packets 0 bytes 0 (0.0 B)

RX errors 0 dropped 0 overruns 0 frame 0

TX packets 0 bytes 0 (0.0 B)

TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

ens192: flags=4163 mtu 1500

inet 172.16.1.100 netmask 255.255.255.0 broadcast 172.16.1.255

inet6 fe80::9cf3:d9de:59f:c320 prefixlen 64 scopeid 0x20

inet6 fe80::5707:6115:267b:bff5 prefixlen 64 scopeid 0x20

inet6 fe80::e34:f952:2859:4c69 prefixlen 64 scopeid 0x20

ether 00:50:56:a2:4e:cb txqueuelen 1000 (Ethernet)

RX packets 5250378 bytes 704067861 (671.4 MiB)

RX errors 139 dropped 190 overruns 0 frame 0

TX packets 4988169 bytes 4151179300 (3.8 GiB)

TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

flannel.1: flags=4163 mtu 1450

inet 10.244.0.0 netmask 255.255.255.255 broadcast 0.0.0.0

inet6 fe80::a82c:bcff:fef8:895c prefixlen 64 scopeid 0x20

ether aa:2c:bc:f8:89:5c txqueuelen 0 (Ethernet)

RX packets 51 bytes 3491 (3.4 KiB)

RX errors 0 dropped 0 overruns 0 frame 0

TX packets 53 bytes 5378 (5.2 KiB)

TX errors 0 dropped 10 overruns 0 carrier 0 collisions 0

lo: flags=73 mtu 65536

inet 127.0.0.1 netmask 255.0.0.0

inet6 ::1 prefixlen 128 scopeid 0x10

loop txqueuelen 1 (Local Loopback)

RX packets 59118846 bytes 15473986573 (14.4 GiB)

RX errors 0 dropped 0 overruns 0 frame 0

TX packets 59118846 bytes 15473986573 (14.4 GiB)

TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

veth6ec94aab: flags=4163 mtu 1450

inet6 fe80::487d:5bff:fef7:484d prefixlen 64 scopeid 0x20

ether 4a:7d:5b:f7:48:4d txqueuelen 0 (Ethernet)

RX packets 88112 bytes 19831802 (18.9 MiB)

RX errors 0 dropped 0 overruns 0 frame 0

TX packets 105718 bytes 13343894 (12.7 MiB)

TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

vethf703483a: flags=4163 mtu 1450

inet6 fe80::b06a:eaff:fec3:33a8 prefixlen 64 scopeid 0x20

ether b2:6a:ea:c3:33:a8 txqueuelen 0 (Ethernet)

RX packets 760882 bytes 59400960 (56.6 MiB)

RX errors 0 dropped 0 overruns 0 frame 0

TX packets 763263 bytes 282299805 (269.2 MiB)

TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

vethff579703: flags=4163 mtu 1450

inet6 fe80::d82f:37ff:fe9a:b6d0 prefixlen 64 scopeid 0x20

ether da:2f:37:9a:b6:d0 txqueuelen 0 (Ethernet)

RX packets 760850 bytes 59398245 (56.6 MiB)

RX errors 0 dropped 0 overruns 0 frame 0

TX packets 764016 bytes 282349248 (269.2 MiB)

TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

通过ifconfig命令,我们可以看到flannel.1的地址是10.244.0.0,子网掩码是255.255.255.255,mtu是1450,mtu要留出一部分做封装叠加,额外开销使用。

cni0只有在pod运行时才会出现。

两个节点上的pod可以借助flannel隧道进行通信。默认使用的VxLAN协议,因为它有额外开销,所以性能有点低。

flannel第二种协议叫host-gw(host gateway),即Node节点把自己的网络接口当做pod的网关使用,从而使不同节点上的node进行通信,这个性能比VxLAN高,因为它没有额外开销。不过他有个缺点, 就是各node节点必须在同一个网段中 。

另外,如果两个pod所在节点在同一个网段中 ,可以让VxLAN也支持host-gw的功能, 即直接通过物理网卡的网关路由转发,而不用隧道flannel叠加,从而提高了VxLAN的性能,这种flannel的功能叫directrouting。

【root@master ~】# kubectl get daemonset -n kube-system

NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE

kube-flannel-ds-amd64 3 3 3 3 3 beta.kubernetes.io/arch=amd64 22d

【root@master ~】# kubectl get pods -n kube-system -o wide

NAME READY STATUS RESTARTS AGE IP //代码效果参考:http://www.zidongmutanji.com/bxxx/451004.html

NODE

kube-flannel-ds-amd64-6zqzr 1/1 Running 8 22d 172.16.1.100 master

kube-flannel-ds-amd64-7qtcl 1/1 Running 7 22d 172.16.1.101 node1

kube-flannel-ds-amd64-kpctn 1/1 Running 6 22d 172.16.1.102 node2

看到flannel是以pod的daemonset控制器形式运行的(其实flannel还可以以守护进程的方式运行)。

【root@master ~】# kubectl get configmap -n kube-system

NAME DATA AGE

kube-flannel-cfg 2 22d

【root@master ~】#kubectl get configmap -n kube-system kube-flannel-cfg -o json -n kube-system|grep Backend

\\"10.244.0.0/16\\",\n \\"Backend\\": {\n \\"Type\\": \\"vxlan\

flannel的配置参数:

1、network :flannel使用的CIDR格式的网络地址,用于为pod配置网络功能。

1)10.244.0.0/16--->

master: 10.244.0.0./24

//代码效果参考:http://www.zidongmutanji.com/zsjx/16955.html

node01: 10.244.1.0/24

....

node255: 10.244.255.0/24

可以支持255个节点

2)10.0.0.0/8

10.0.0.0/24

...

10.255.255.0/24

可以支持6万多个节点

2、SubnetLen :把network切分为子网供各节点使用时,使用多长的掩码进行切分,默认为24位;

3、SubnetMin :指明子网中的地址段最小多少可以分给子网使用,比如可以限制10.244.10.0/24,这样0~9就不让用;

4、SubnetMax :表示最多使用多少个,比如10.244.100.0/24

5、Backend: Vxlan,host-gw,udp(最慢)

flannel支持多种后端:

1.Vxlan

1.1 vxlan

1.2 Dirextrouting

2.host-gw:Host Gateway #不推荐,只能在二层网络中,不支持跨网络,如果有成千上万的Pod,容易产生广播风暴

3.UDP:性能差

【root@master ~】# kubectl get pods -o wide

NAME READY STATUS RESTARTS AGE IP NODE

myapp-deploy-69b47bc96d-79fqh 1/1 Running 4 7//代码效果参考:http://www.zidongmutanji.com/bxxx/242734.html

d 10.244.1.97 node1

myapp-deploy-69b47bc96d-tc54k 1/1 Running 4 7d 10.244.2.88 node2

【root@master ~】# kubectl exec -it myapp-deploy-69b47bc96d-79fqh -- /bin/sh

/ # ping 10.244.2.88 #ping对方Node上容器的ip

PING 10.244.2.88 (10.244.2.88): 56 data bytes

64 bytes from 10.244.2.88: seq=0 ttl=62 time=0.459 ms

64 bytes from 10.244.2.88: seq=0 ttl=62 time=0.377 ms

64 bytes from 10.244.2.88: seq=1 ttl=62 time=0.252 ms

64 bytes from 10.244.2.88: seq=2 ttl=62 time=0.261 ms

在其他节点上抓包,发现根本就在ens192上抓不到包。

【root@master ~】# tcpdump -i ens192 -nn icmp

【root@master ~】# yum install bridge-utils -y

【root@master ~】# brctl show docker0

bridge namebridge idSTP enabledinterfaces

docker08000.024283f8b8ffno

【root@master ~】# brctl show cni0

bridge namebridge idSTP enabledinterfaces

cni08000.0a580af40001noveth6ec94aab

vethf703483a

vethff579703

可以看到veth这些接口都是桥接到cni0上的。

brctl show表示查看已有网桥。

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
15天前
|
安全 定位技术 数据安全/隐私保护
|
20天前
|
运维 定位技术 网络虚拟化
|
25天前
|
负载均衡 监控 网络虚拟化
|
6天前
|
负载均衡 应用服务中间件 数据安全/隐私保护
docker swarm 创建 Swarm 模式下的网络
【10月更文挑战第14天】
13 6
|
12天前
|
存储 前端开发 JavaScript
链动模式融合排队免单:扩散用户裂变网络、提高复购
将链动2+1与排队免单结合的模式及链动3+1模式转化为可运行代码涉及多个技术领域,包括后端开发、前端开发、数据库设计等。本文提供了一个简化的技术框架,涵盖用户管理、订单处理、奖励计算、团队结构等核心功能,并提供了示例代码。同时,强调了安全性、测试与部署的重要性,以确保系统的稳定性和合规性。
|
22天前
|
Kubernetes 网络协议 网络安全
k8s中网络连接问题
【10月更文挑战第3天】
74 7
|
20天前
|
Docker 容器
docker中检查容器的网络模式
【10月更文挑战第5天】
46 1
|
21天前
|
Docker 容器
docker中无网络模式(none)
【10月更文挑战第4天】
14 2
|
22天前
|
Kubernetes 应用服务中间件 nginx
搭建Kubernetes v1.31.1服务器集群,采用Calico网络技术
在阿里云服务器上部署k8s集群,一、3台k8s服务器,1个Master节点,2个工作节点,采用Calico网络技术。二、部署nginx服务到k8s集群,并验证nginx服务运行状态。
244 1
|
23天前
|
监控 Kubernetes 测试技术
掌握Docker网络模式:构建高效容器通信
【10月更文挑战第3天】本文深入探讨了Docker的网络模式,包括它们的工作原理、使用场景以及如何配置和优化容器间的通信。希望能够帮助开发者在项目中有效地应用Docker网络模式,构建高效的容器化应用。