联盟时代V.跨数据中心L3网络

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
EMR Serverless StarRocks,5000CU*H 48000GB*H
应用型负载均衡 ALB,每月750个小时 15LCU
简介: 通过NSX Federation解决方案,用户可以轻松地实现业务网络的跨数据中心延伸,这提供了工作负载跨数据中心部署和迁移的可行性。NSX微分段能提供工作负载跨数据中心一致的安全防护,对于工作负载(虚拟机\容器\裸金属)来说,NSX构建的虚拟云网络是一个庞大可靠的网络资源池。在上次分享中,笔者分享了Federation架构下,跨数据中心L2网络的实现过程和基本原理。今天笔者将继续往前推进,说一说跨数据中心L3网络的实现。这其中涉及到东西向的分布式路由以及连接NSX网络与物理网络的静态\动态路由。现在,就让我们开始吧!

                                   写在前面

熟悉NSX的朋友一定知道,NSX的流量可分为东西向和南北向。简单来说,东西向流量是同一个应用或者同一个租户的工作负载对象之间的流量;南北向流量通常是NSX逻辑网络与数据中心物理网络之间通信的流量。因此,今天笔者分享的Federation架构下跨数据中心L3网络就一定会涉及到相关流量类型。


01.采用两层网关架构的建议

无论是Federation架构还是Multisite架构,亦或是Standalone的NSX路由,都离不开Tier1网关和Tier0网关。

对于NSX逻辑网络而言,一定会包括Tier0网关。

在只有Tier0网关的设计架构下,它承载了以下工作:

  • 通过静态路由或者动态路由协议与物理网络实现南北向的交互;
  • 借助NSX的VDRB模块实现工作负载的东西向流量的转发。

如上图所示:

虚拟机连接到Overlay传输区域的某一个分段,这个分段本身连接到Tier0网关并且被定义了网关地址。此时Tier0网关就承载了这台虚拟机及其所属分段与其他Overlay传输区域分段和虚拟机之间的东西向流量转发的功能。

我们知道,Tier0网关是由服务路由器(Service Router,简称SR)以及分布式路由器(Distributed Router,简称DR)两种角色组成的,承载东西向流量转发的是DR角色。在只有Tier0网关的简单架构场景下,Tier0DR实例除了会在Edge传输节点内出现外,也会出现在ESXi的主机传输节点上,这一点可以通过命令行确认:

# nsxcli

> get logical-routers

image.png

通过上文的显示结果不难看出,在笔者环境的ESXi主机传输节点内核中,运行了一个UUID(尾号fbc5)的DR实例(VDR UUID)。但无法明确标注这个DR实例究竟是Tier1网关还是Tier0网关。如果管理员想明确知道这个实例究竟是Tier0还是Tier1网关,需要使用相同的命令在Edge节点上进行查看。

image.png

    很明显在Edge传输节点上运行GET LOGICAL-ROUTERS命令,管理员可以获得更多的信息:原来UUID(尾号为fbc5)的DR实例是命名为t1-gw-as-global的Tier1 DR实例。

回到今天分享的主题本身,其实在笔者为用户设计NSX逻辑网络的时候,更多地会倾向于设计Tier1+Tier0两层架构来实现更为灵活的虚拟云网络搭建和交付,原因有三:

❆ 两层架构更适用于多租户环境

每一个租户都是一个独立的Tier1网络(所有分段连接到对应租户的Tier1网关),Tier1网关和Tier1网关之间的网络可以受到NSX的管控,允许IP地址重叠(通过SNAT、负载均衡实现出向和入向访问),从整体架构上更加具有可管理性和安全性。

❆ 两层架构更灵活,兼顾有状态服务和等价多路径需求

Tier1和Tier0网关都可以承载诸如NAT、负载均衡这类常用的“有状态的服务”,这些功能都是由对应网关的SR角色来实现的。但Tier1和Tier0的SR也有一个巨大的不同之处:Tier0网关实例(其实就是T0SR角色实例)是支持Active-Active以及Active-Standby两种模式的,而Tier1SR角色实例仅支持Active-Standby一种模式。对于想要激活有状态服务的场景,无论是将其运行在Tier1还是Tier0SR实例上,均要求该实例必须是AS模式,这是有状态服务的需求。对于用户来说,无论是虚拟机还是裸金属的Edge传输节点,都至少会部署2台以上。一方面是因为设计必须满足高可用性,另一方面也希望利用等价多路径ECMP来提高吞吐(多台Edge传输节点的Tier0SR实例同时承载南北向的出入流量),而ECMP仅被AA模式支持。既然如此,Tier0网关采用AA模式以满足ECMP的需求,Tier1网关采用AS模式以满足有状态服务的需求,这种两层架构可以很好地适应这种普遍存在的场景。

❆ 两层架构更贴近云的自动化场景

笔者之前分享过一篇VMware vRealize Automation的随笔【一起来描绘vRealize Automation的复合蓝图。一直以来,笔者始终认为想要真正最大化发挥虚拟云网络为用户带来的便捷,一定需要结合诸如vRA这样的云自动化解决方案。对于类似NSX+CMP的场景来说,编排器Orchestrator会为提交申请的用户自动创建NSX网络提供工作负载连接。因此采用两层架构能更好地明确服务边界:

对于IT管理员来说,他们更像是运营商,只需要负责Tier0网关的交付和运维(包括南北向路由、租户间网络策略以及边界防火墙);

对于租户来说,编排器为他们创建Tier1网络并连接到Tier0网关,实现内部东西向互通外,也实现了与外部网络的南北向互通。因为是相互独立的Tier1网络,自然可以实现上文讲到的其他两点设计考量。

因此笔者为大家分享的Federation架构会采用Tier1+Tier0两层实现L3互通,这是真正开始动手“实现分布式路由”的重要前提。


02.分布式路由的实现

经过了重重铺垫,接下来笔者就给出Federation架构下使用Tier1网关实现跨数据中心L3网络互通的配置步骤。

根据VMware官方文档的建议,在创建Tier1网关之前应该优先创建Tier0网关以确定“跨度”,所谓的跨度其实就是指Tier0网关延伸所覆盖的Location位置,在笔者的环境中这个跨度包含Primary DataCenter和Secondary DataCenter。

⚝ 访问Global Manager,创建Tier0网关:

最先需要定义的是Tier0网关的名称,笔者通常习惯采用易于管理和识别的命名方式,比如“t0-gw-aa-global”,意味着这是一个全局环境使用(Federation架构)下的AA模式的Tier0网关。

默认的模式是活动-活动,也就是A/A模式;在双活模式下,流量在所有位置的Edge节点之间进行负载均衡。在主备模式下,选举出的 Edge 节点处理每个位置的流量。如果活动节点发生故障,备用节点将变为活动状态。

为了实现ECMP和Local Egress,选择A/A作为HA模式,同时勾选“将所有位置标记为主站点”。

image.pngimage.png


接下来需要为Tier0网关定义延伸的跨度。在本示例中,依次选择Primary DataCenter和Secondary DataCenter;随后在弹出的Edge集群下拉菜单中选择已经做好RTEP等定义的Edge集群(本示例中依次为edgecl-primary和edgecl-secondary),因为已经勾选了“将所有位置标记为主站点,”因此模式固定为“主”和“主”。

⚝ 确认上述设置无误后,点击保存完成Tier0网关的创建工作。

image.png

⚝ 访问Global Manager,继续创建Tier1网关(其实这一步在之前跨数据中心延伸分段被创建的时候就已经做过了)。

为Tier1网关定义一个便于管理和辨识的命名,如t1-gw-as-global;

可以看到Tier1网关的HA模式仅限于活动-备用;

Edge池分配大小选择【路由】;关于其他选项的说明会在后续的连载中给出。

image.png

⚝ 确认上述设置无误后,点击保存完成Tier1网关的创建工作。

接下来,我们将创建三个全局Overlay传输区域的分段,并将其连接到刚刚创建的Tier1网关之上。这三个分段分别是:

❆ gseg-web-10.10.1.0

❆ gseg-app-10.10.2.0

❆ gseg-db-10.10.3.0

不难看出,这是为了呈现一个典型的3-Tier-Application而定义的三个分段,也是VMware VCAP-NV最喜欢用的经典模型。

image.png

随后将预先在两个数据中心vCenter上创建的5台虚拟机连接到对应的分段之上。

为了便于后面的演示,笔者将之前创建的gseg-photon-10.10.0.0分段暂时先删除了。

五台用于演示用例的虚拟机分布在两个数据中心,并且同一个数据中心内的虚拟机不会运行在同一台ESXi传输节点之上。

image.png

❆ 现在进行同一个数据中心内的分布式路由测试:

web-21虚拟机尝试通过ssh访问app-21虚拟机以及db-21虚拟机,结合上一篇分享不难知道这些流量会在ESXi主机传输节点之间进行封装和传输。

可以看到在同一个数据中心内,借助于NSX Tier1网关的分布式路由功能,不同分段之间已经实现了L3可达。

❆ 现在进行跨数据中心的分布式路由测试:

web-11/web-12虚拟机尝试通过ssh访问app-21虚拟机以及db-21虚拟机。

以web-11访问db-21为例:这些流量会经过Tier1分布式路由器首先路由到gseg-db-10.10.3.0分段的网关10.10.3.254,这个IP存在于每一台ESXi传输节点内核中运行的T1网关之上。随后的ESXi传输节点-本地首选Edge传输节点-远端首选Edge传输节点-目标ESXi传输节点的流量均隶属于gseg-db-10.10.3.0分段,这就是NSX经典的“先路由-后交换”原则。

通过NSX自带的TraceFlow工具可以清楚地看到这个过程:

image.png

测试的结果也表示:跨数据中心的分布式路由也已经实现了。

image.png

至此,当前演示用例的Federation逻辑网络和工作负载部署拓扑如下所示:


04.验证网关实例的延伸

现在我们一起用命令来查看已经创建的Tier1网关和Tier0网关在数据中心之间的延伸情况。这里依旧使用上文所提到的两个命令:

# nsxcli

> get logical-routers

首先是Primary DataCenter的esxi-11传输节点:

image.png

发现已经存在2个分布式路由器,虽然看不到具体的命名,但是不难推测出UUID尾号为222d的实例应该是Tier0网关的DR,另一个UUID尾号为fbc5的肯定是Tier1网关的DR。

相信在其他传输节点上,分布式路由器实例的分布也不会有差异。

Secondary DataCenter的esxi-23传输节点:

image.png

在Primary DataCenter的edge-11传输节点:

edge-12传输节点:

在Secondary DataCenter的edge-21传输节点:

image.png

edge-22传输节点:

image.png

通过对比不难看出,虽然不同数据中心的Tier1DR实例和Tier0DR实例其LR-ID可能不同,但本质上是同一个DR实例在数据中心之间实现了延伸,因为其UUID是一致的。

实际上,基于当前的Tier0和Tier1网关配置,其对应实例的分布情况如下图所示:

image.png

同理,即便Tier0网关下再多几个Tier1网关,其总体架构拓扑不会发生根本性的变化。在当前的配置下,Tier1网关和Tier0网关已经实现了跨数据中心延伸。


05.如果Tier1启用有状态服务呢?

在创建Tier1网关的时候,笔者并没有为Tier1网关指定Edge集群。可就像上文笔者所说的那样,其实很多很多时候Tier1网关会承载很多有状态的服务,诸如负载均衡、NAT这些。因此我们也需要讨论Tier1网关承载有状态服务的情况。

让我们回到Tier1网关的配置界面:

⚝ 修改Tier1网关的配置,激活【服务或自定义跨度启用 Edge 集

image.png

此时Tier1网关的配置界面又多了几个选项:

故障切换可以选择【主动】或者【被动】;所谓的主动就是指如果首选节点发生故障并恢复,它将抢占其对等节点并成为活动节点。对等方将其状态更改为备用。与之相对应的被动就是如果首选节点发生故障并恢复,它将检查其对等节点是否为活动节点。如果是这样,首选节点将不会抢占其对等节点并将成为备用节点。

⚝ 本示例中,定义故障切换为【主动】。

可以看到因为Tier1网关已经连接到了Tier0网关,换言之,其延伸的数据中心“跨度”已经被Tier0网关所定义,因此在位置选项栏已经定义了包含Primary DataCenter和Secondary DataCenter。

⚝ 随后为不同的数据中心“跨度”选择已经完成包括RTEP就绪在内的Edge集群,即edgecl-primary以及edgecl-secondary。

image.png

在Edge选项可以选择【自动分配】或者手动【设置】。

image.png

如果开启【启用备用切换】,那么管理员必须选择【自动分配】;想要手动指定Edge传输节点的主备关系,需要关闭【启用备用切换】。

本示例中,关闭【启用备用切换】;

⚝ 定义Primary DataCenter为Tier1有状态服务的【主】模式。

⚝ 为了便于后续的演示和验证,我们手动指定edge-11和edge-21作为两个数据中心内Edge集群的首选节点。

image.png

在完成上述配置后,我们再去传输节点用命令行检查Tier0网关和Tier1网关的实例情况。

在Primary DataCenter的ESXi主机传输节点esxi-11上,只剩下Tier1网关的DR实例。

image.png

无独有偶,在Secondary DataCenter的ESXi主机传输节点esxi-23上,也只剩下Tier1网关的DR实例。

那么在Edge传输节点上,又会发生什么变化呢?其实看过笔者之前公众号分享的朋友一定猜到了,因为Tier1网关出现了SR实例,且没有任何分段连接到Tier0网关之上,因此ESXi传输节点内部不会有任何除了Tier1网关DR之外的实例,Tier0网关的DR实例只会出现在Edge传输节点上。

在Primary DataCenter的edge-11传输节点上,出现了Tier1网关的DR、SR实例以及Tier0网关的DR实例。

image.png

同样地,在Primary DataCenter的edge-12传输节点上,也出现Tier1网关的DR、SR实例以及Tier0网关的DR实例。

image.png

那么,在Secondary DataCenter的Edge传输节点情况又是如何呢?没错,在这个【备】数据中心的Edge传输节点内部,同样出现了Tier1网关的DR、SR实例以及Tier0网关的DR实例。

image.png

有人会说,如果是这样的话,不就和之前没有创建Tier1网关SR实例的情况一样了嘛!

是否真的一样,需要等待Tier0网关与物理上联构建起南北向路由后再来分析。这些内容将在下一篇连载中向大家分享。


               06.给出一个可用的VYOS参考示例

   对于许多也想用自己环境倒腾倒腾NSX Federation的朋友来说,上联物理网络设备是一个“不小的麻烦”。这里笔者推荐采用VYOS来模拟上联物理网络设备,以下是一些可参考的配置示例。

set system host-name 't1core-11'
# 定义VYOS操作系统主机名
set service ssh listen-address 10.255.255.15
#开启SSH服务,并定义侦听地址
set interfaces loopback lo address '10.255.255.5/32'
# 定义环回地址
set interfaces ethernet eth0 address '1.1.1.1/24'
set interfaces ethernet eth1 address '172.30.51.120/24'
set interfaces ethernet eth2 address '10.255.1.21/30'
set interfaces ethernet eth3 address '10.255.1.25/30'
# 定义接口地址
set interfaces ethernet eth0 mtu 1500
set interfaces ethernet eth1 mtu 1500
set interfaces ethernet eth2 mtu 1500
set interfaces ethernet eth3 mtu 1500
# 定义接口MTU
 set protocols static route 0.0.0.0/0 next-hop 1.1.1.254 distance 1
set protocols static route 172.30.81.0/24 next-hop 172.30.51.254 distance 1
# 配置静态路由
set protocols bgp 56 maximum-paths ibgp 2
set protocols bgp 56 maximum-paths ebgp 2
set protocols bgp 56 neighbor 10.255.1.22 update-source 10.255.1.21
set protocols bgp 56 neighbor 10.255.1.22 bfd
set protocols bgp 56 neighbor 10.255.1.22 remote-as '34'
set protocols bgp 56 neighbor 10.255.1.26 update-source 10.255.1.25
set protocols bgp 56 neighbor 10.255.1.26 bfd
set protocols bgp 56 neighbor 10.255.1.26 remote-as '34'
# 定义BGP路由协议邻居、参数等
 set protocols bgp 56 address-family ipv4-unicast network 10.255.255.5/32
# 声明网络
set protocols bfd peer 10.255.1.22 interval receive 500
set protocols bfd peer 10.255.1.22 interval transmit 500
set protocols bfd peer 10.255.1.22 interval multiplier 3
set protocols bfd peer 10.255.1.26 interval receive 500
set protocols bfd peer 10.255.1.26 interval transmit 500
set protocols bfd peer 10.255.1.26 interval multiplier 3
# 定义BFD对端地址及对应的参数 
set protocols bgp 56 parameters router-id '10.255.255.5'
# 定义路由器ID
set protocols bgp 56 address-family ipv4-unicast redistribute connected
set protocols bgp 56 address-family ipv4-unicast redistribute static
# 将直连网络、静态路由等重分发到BGP
set nat source rule 101 outbound-interface eth0
set nat source rule 101 source address 10.10.0.0/16
set nat source rule 101 translation address 1.1.1.1
set nat source rule 102 outbound-interface eth0
set nat source rule 102 source address 10.255.1.0/28
set nat source rule 102 translation address 1.1.1.2
#定义NAT规则

其实笔者的环境也是用VYOS作为上联网络设备与Tier0网关通过BGP动态路由协议建立邻居实现南北向路由学习和更新。

写在最后

笔者的许多朋友在私聊过程中都会好奇笔者写公众号的心路历程,其实将自己学到的东西分享出来一方面是因为笔者的兴趣在此,另一方面也是因为如果不写写东西怕是会逐渐丢失文笔变成提笔忘字的“新时代文盲”;但更重要的是,笔者一直认为只有当尝试将自己所学的知识与他人坐而论道的时候才会意识到这一块知识体系自己的短板和缺陷,从而花时间去补全最后一块拼图。在学习并实践Federation的过程中,笔者结识了不少新的朋友,纠正了过往一些望文生义的谬误,这恐怕是平常“闭门造车”过程中所不能触及到的幸福与快乐。笔者也希望自己能继续这一份初心,为大家带来更多的干货和技术随笔。



相关文章
|
1月前
|
移动开发 网络协议 测试技术
Mininet多数据中心网络拓扑流量带宽实验
Mininet多数据中心网络拓扑流量带宽实验
57 0
|
3月前
|
边缘计算 负载均衡 5G
边缘计算问题之数据中心内部和外部网络如何解决
边缘计算问题之数据中心内部和外部网络如何解决
30 1
|
4月前
|
运维 负载均衡 监控
|
3月前
|
存储 人工智能 运维
深度解析 | 什么是超融合数据中心网络?
深度解析 | 什么是超融合数据中心网络?
5007 1
|
6月前
|
数据中心 网络架构 Python
【计算巢】数据中心的网络架构设计原则
【5月更文挑战第31天】探讨数据中心网络架构设计原则:稳定性是基础,需抵御各种挑战;强调扩展性,适应业务发展;追求高效,确保数据传输速度;注重灵活性,灵活应对变化。简单Python代码示例展示网络节点连接。设计时需具备长远眼光,综合考虑技术方案,以构建坚固高效的信息桥梁。同学们,要持续学习和探索,为信息世界贡献力量!
89 2
|
5月前
|
负载均衡 数据安全/隐私保护 网络架构
理解网络交换机:L2与L3交换机的功能与区别
理解网络交换机:L2与L3交换机的功能与区别
561 0
|
6月前
|
负载均衡 安全 网络架构
|
6月前
|
机器学习/深度学习 安全 网络安全
利用机器学习优化数据中心能效的研究数字堡垒的构建者:网络安全与信息安全的深层探索
【5月更文挑战第29天】在云计算和大数据时代,数据中心的能效问题成为关键挑战之一。本文通过集成机器学习技术与现有数据中心管理策略,提出了一种新型的智能优化框架。该框架能够实时分析数据中心的能耗模式,并自动调整资源分配,以达到降低能耗的目的。研究结果表明,应用机器学习算法可以显著提升数据中心的能源使用效率,同时保持服务质量。
|
6月前
|
人工智能 安全 网络安全
网络安全与信息安全:防护之道探索现代数据中心的能效优化策略
【5月更文挑战第29天】 在数字化时代,网络安全与信息安全已成为我们不可忽视的问题。本文将深入探讨网络安全漏洞的成因,加密技术的应用,以及提升安全意识的重要性。我们将了解到,网络安全并非只是技术问题,更是一种全民参与的过程。 【5月更文挑战第29天】 在数字化转型的浪潮中,数据中心作为信息处理和存储的核心枢纽,其能源效率已成为衡量其可持续性的关键指标。本文将深入探讨现代数据中心实现能效优化的策略与实践,从硬件选择、冷却系统创新、能源管理软件到人工智能辅助决策,揭示如何通过综合手段提升数据中心运行效率,同时减少环境影响。
|
6月前
|
存储 网络协议 数据库
数据中心网络架构的需求原则及策略
【5月更文挑战第15天】本文讨论了数据中心建设的重要性,它能提升用户体验,保证业务连续性和数据安全。