15张图超硬核讲解 Kubernetes 网络,我不信网工不会看!

简介: 15张图超硬核讲解 Kubernetes 网络,我不信网工不会看!


Underlay Network Model

什么是Underlay Network

底层网络 Underlay Network 顾名思义是指网络设备基础设施,如交换机,路由器, DWDM 使用网络介质将其链接成的物理网络拓扑,负责网络之间的数据包传输。


图:Underlay network topology

underlay network 可以是二层,也可以是三层;二层 underlay network 的典型例子是以太网 Ethernet,三层是 underlay network 的典型例子是互联网 Internet

而工作与二层的技术是 vlan,工作在三层的技术是由OSPF, BGP等协议组成

kubernetes中的underlay network

在kubernetes中,underlay network 中比较典型的例子是通过将宿主机作为路由器设备,Pod 的网络则通过学习成路由条目从而实现跨节点通讯。


图:underlay network topology in kubernetes

这种模型下典型的有 flannel 的 host-gw 模式calico BGP 模式

flannel host-gw

flannel host-gw 模式中每个Node需要在同一个二层网络中,并将Node作为一个路由器,跨节点通讯将通过路由表方式进行,这样方式下将网络模拟成一个underlay network


图:layer2 ethernet topology

Notes:

因为是通过路由方式,集群的cidr至少要配置16,因为这样可以保证,跨节点的Node作为一层网络,同节点的Pod作为一个网络。如果不是这种用情况,路由表处于相同的网络中,会存在网络不可达

Calico BGP

BGP(Border Gateway Protocol)是去中心化自治路由协议。它是通过维护IP路由表或'前缀'表来实现AS (Autonomous System)之间的可访问性,属于向量路由协议


图:BGP network topology

与 flannel 不同的是,Calico 提供了的 BGP 网络解决方案,在网络模型上,Calico 与 Flannel host-gw 是近似的,但在软件架构的实现上,flannel 使用 flanneld 进程来维护路由信息;而 Calico 是包含多个守护进程的,其中 Brid 进程是一个 BGP 的客户端 与路由反射器(Router Reflector),BGP 客户端负责从 Felix 中获取路由并分发到其他 BGP Peer,而反射器在BGP中起了优化的作用。在同一个IBGP中,BGP客户端仅需要和一个 RR 相连,这样减少了AS内部维护的大量的BGP连接。通常情况下,RR 是真实的路由设备,而 Bird 作为 BGP 客户端工作。


图:Calico Network Architecture

IPVLAN & MACVLAN

IPVLAN 和 MACVLAN 是一种网卡虚拟化技术,两者之间的区别为, IPVLAN 允许一个物理网卡拥有多个IP地址,并且所有的虚拟接口用同一个MAC地址;而 MACVLAN 则是相反的,其允许同一个网卡拥有多个MAC地址,而虚拟出的网卡可以没有IP地址。

因为是网卡虚拟化技术,而不是网络虚拟化技术,本质上来说属于 Overlay network,这种方式在虚拟化环境中与Overlay network 相比最大的特点就是可以将Pod的网络拉平到Node网络同级,从而提供更高的性能、低延迟的网络接口。本质上来说其网络模型属于下图中第二个。

  • 虚拟网桥:创建一个虚拟网卡对(veth pair),一头栽容器内,一头栽宿主机的root namespaces内。这样一来容器内发出的数据包可以通过网桥直接进入宿主机网络栈,而发往容器的数据包也可以经过网桥进入容器。
  • 多路复用:使用一个中间网络设备,暴露多个虚拟网卡接口,容器网卡都可以介入这个中间设备,并通过MAC/IP地址来区分packet应该发往哪个容器设备。

硬件交换,为每个Pod分配一个虚拟网卡,这样一来,Pod与Pod之间的连接关系就会变得非常清晰,因为近乎物理机之间的通信基础。如今大多数网卡都支持SR-IOV功能,该功能将单一的物理网卡虚拟成多个VF接口,每个VF接口都有单独的虚拟PCIe通道,这些虚拟的PCIe通道共用物理网卡的PCIe通道。


图:Virtual networking modes: bridging, multiplexing and SR-IOV

在kubernetes中 IPVLAN 这种网络模型下典型的CNI有,multus 与 danm。

multus

multus 是 intel 开源的CNI方案,是由传统的 cni 与 multus 组成,并且提供了 SR-IOV CNI 插件使 K8s pod 能够连接到 SR-IOV VF 。这是使用了 IPVLAN/MACVLAN 的功能。

当创建新的Pod后,SR-IOV 插件开始工作。配置 VF 将被移动到新的 CNI 名称空间。该插件根据 CNI 配置文件中的 “name” 选项设置接口名称。最后将VF状态设置为UP。

下图是一个 Multus 和 SR-IOV CNI 插件的网络环境,具有三个接口的 pod。

  • eth0 是 flannel 网络插件,也是作为Pod的默认网络
  • VF 是主机的物理端口 ens2f0 的实例化。这是英特尔X710-DA4上的一个端口。在Pod端的 VF 接口名称为 south0 。
  • 这个VF使用了 DPDK 驱动程序,此 VF 是从主机的物理端口 ens2f1 实例化出的。这个是英特尔® X710-DA4上另外一个端口。Pod 内的 VF 接口名称为 north0。该接口绑定到 DPDK 驱动程序 vfio-pci。


图:Mutus networking Architecture overlay and SR-IOV

Notes:terminology

NIC:network interface card,网卡

SR-IOV:single root I/O virtualization,硬件实现的功能,允许各虚拟机间共享PCIe设备。

VF:Virtual Function,基于PF,与PF或者其他VF共享一个物理资源。

PF:PCIe Physical Function,拥有完全控制PCIe资源的能力

DPDK:Data Plane Development Kit

于此同时,也可以将主机接口直接移动到Pod的网络名称空间,当然这个接口是必须存在,并且不能是与默认网络使用同一个接口。这种情况下,在普通网卡的环境中,就直接将Pod网络与Node网络处于同一个平面内了。


图:Mutus networking Architecture overlay and ipvlan

danm

DANM是诺基亚开源的CNI项目,目的是将电信级网络引入kubernetes中,与multus相同的是,也提供了SR-IOV/DPDK 的硬件技术,并且支持IPVLAN.

Overlay Network Model

什么是Overlay

叠加网络是使用网络虚拟化技术,在 underlay 网络上构建出的虚拟逻辑网络,而无需对物理网络架构进行更改。本质上来说,overlay network 使用的是一种或多种隧道协议 (tunneling),通过将数据包封装,实现一个网络到另一个网络中的传输,具体来说隧道协议关注的是数据包(帧)。


图:overlay network topology

常见的网络隧道技术

  • 通用路由封装 ( Generic Routing Encapsulation ) 用于将来自 IPv4/IPv6的数据包封装为另一个协议的数据包中,通常工作与L3网络层中。
  • VxLAN (Virtual Extensible LAN),是一个简单的隧道协议,本质上是将L2的以太网帧封装为L4中UDP数据包的方法,使用 4789 作为默认端口。VxLAN 也是 VLAN 的扩展对于 4096( 位 VLAN ID) 扩展为1600万( 位 VNID )个逻辑网络。

这种工作在 overlay 模型下典型的有 flannel 与 calico 中的的 VxLAN, IPIP 模式。

IPIP

IP in IP 也是一种隧道协议,与 VxLAN 类似的是,IPIP 的实现也是通过Linux内核功能进行的封装。IPIP 需要内核模块 ipip.ko 使用命令查看内核是否加载IPIP模块lsmod | grep ipip ;使用命令modprobe ipip 加载。


图:A simple IPIP network workflow

Kubernetes中 IPIP 与 VxLAN 类似,也是通过网络隧道技术实现的。与 VxLAN 差别就是,VxLAN 本质上是一个 UDP包,而 IPIP 则是将包封装在本身的报文包上。


图:IPIP in kubernetes


图:IPIP packet with wireshark unpack

Notes:

公有云可能不允许IPIP流量,例如Azure

VxLAN

kubernetes中不管是 flannel 还是 calico VxLAN的实现都是使用Linux内核功能进行的封装,Linux 对 vxlan 协议的支持时间并不久,2012 年 Stephen Hemminger 才把相关的工作合并到 kernel 中,并最终出现在 kernel 3.7.0 版本。为了稳定性和很多的功能,你可以会看到某些软件推荐在 3.9.0 或者 3.10.0 以后版本的 kernel 上使用 VxLAN。


图:A simple VxLAN network topology

在kubernetes中vxlan网络,例如 flannel,守护进程会根据kubernetes的Node而维护 VxLAN,名称为 flannel.1 这是 VNID,并维护这个网络的路由,当发生跨节点的流量时,本地会维护对端 VxLAN 设备的MAC地址,通过这个地址可以知道发送的目的端,这样就可以封包发送到对端,收到包的对端 VxLAN设备 flannel.1 解包后得到真实的目的地址。

查看 Forwarding database 列表

$bridgefdb 26:5e:87:90:91:fcdevflannel.1dst10.0.0.3selfpermanent


图:VxLAN in kubernetes


图:VxLAN packet with wireshark unpack

Notes:

VxLAN使用的4789端口,wireshark应该是根据端口进行分析协议的,而flannel在linux中默认端口是8472,此时抓包仅能看到是一个UDP包。

通过上述的架构可以看出,隧道实际上是一个抽象的概念,并不是建立的真实的两端的隧道,而是通过将数据包封装成另一个数据包,通过物理设备传输后,经由相同的设备(网络隧道)进行解包实现网络的叠加。

weave vxlan

weave也是使用了 VxLAN 技术完成的包的封装,这个技术在 weave 中称之为 fastdp (fast data path),与 calico 和 flannel 中用到的技术不同的,这里使用的是 Linux 内核中的 openvswitch datapath module,并且weave对网络流量进行了加密。


图:weave fastdp network topology

Notes:fastdp工作在Linux 内核版本 3.12 及更高版本,如果低于此版本的例如CentOS7,weave将工作在用户空间,weave中称之为 sleeve mode

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
27天前
|
人工智能 弹性计算 运维
ACK Edge与IDC:高效容器网络通信新突破
本文介绍如何基于ACK Edge以及高效的容器网络插件管理IDC进行容器化。
|
5月前
|
Kubernetes 负载均衡 网络安全
Kubernetes 网络模型与实践
【8月更文第29天】Kubernetes(K8s)是当今容器编排领域的佼佼者,它提供了一种高效的方式来管理容器化应用的部署、扩展和运行。Kubernetes 的网络模型是其成功的关键因素之一,它支持服务发现、负载均衡和集群内外通信等功能。本文将深入探讨 Kubernetes 的网络模型,并通过实际代码示例来展示服务发现和服务网格的基本概念及其实现。
199 1
|
5月前
|
Kubernetes Devops 持续交付
DevOps实践:使用Docker和Kubernetes实现持续集成和部署网络安全的守护盾:加密技术与安全意识的重要性
【8月更文挑战第27天】本文将引导读者理解并应用DevOps的核心理念,通过Docker和Kubernetes的实战案例,深入探讨如何在现代软件开发中实现自动化的持续集成和部署。文章不仅提供理论知识,还结合真实示例,旨在帮助开发者提升效率,优化工作流程。
|
16天前
|
Kubernetes 网络协议 应用服务中间件
Kubernetes Ingress:灵活的集群外部网络访问的利器
《Kubernetes Ingress:集群外部访问的利器-打造灵活的集群网络》介绍了如何通过Ingress实现Kubernetes集群的外部访问。前提条件是已拥有Kubernetes集群并安装了kubectl工具。文章详细讲解了Ingress的基本组成(Ingress Controller和资源对象),选择合适的版本,以及具体的安装步骤,如下载配置文件、部署Nginx Ingress Controller等。此外,还提供了常见问题的解决方案,例如镜像下载失败的应对措施。最后,通过部署示例应用展示了Ingress的实际使用方法。
32 2
|
3月前
|
Kubernetes 网络协议 网络安全
k8s中网络连接问题
【10月更文挑战第3天】
225 7
|
3月前
|
Kubernetes 应用服务中间件 nginx
搭建Kubernetes v1.31.1服务器集群,采用Calico网络技术
在阿里云服务器上部署k8s集群,一、3台k8s服务器,1个Master节点,2个工作节点,采用Calico网络技术。二、部署nginx服务到k8s集群,并验证nginx服务运行状态。
1105 1
|
4月前
|
Kubernetes 容器 Perl
Kubernetes网络插件体系及flannel基础
文章主要介绍了Kubernetes网络插件体系,特别是flannel网络模型的工作原理、配置和测试方法。
130 3
|
3月前
|
Kubernetes 容器
基于Ubuntu-22.04安装K8s-v1.28.2实验(三)数据卷挂载NFS(网络文件系统)
基于Ubuntu-22.04安装K8s-v1.28.2实验(三)数据卷挂载NFS(网络文件系统)
212 0
|
5月前
|
Kubernetes Cloud Native 网络安全
云原生入门指南:Kubernetes和容器化技术云计算与网络安全:技术融合的新篇章
【8月更文挑战第30天】在云计算的浪潮中,云原生技术如Kubernetes已成为现代软件部署的核心。本文将引导读者理解云原生的基本概念,探索Kubernetes如何管理容器化应用,并展示如何通过实践加深理解。
|
5月前
|
Kubernetes 网络协议 网络安全
在K8S中,容器提供一个服务,外部访问慢,到底是容器网络问题?还是容器服务问题?这种怎么排查?
在K8S中,容器提供一个服务,外部访问慢,到底是容器网络问题?还是容器服务问题?这种怎么排查?

热门文章

最新文章

下一篇
开通oss服务