为什么设计vMotion和Management网络分开【展现虚拟化商业价值征文大赛】

简介:

如果服务器有4张千兆以太网卡,你会选择怎样来设计VMware平台的虚拟网络?

首先来看下面这张虚拟网络设计图

VM03

生产业务网络要求占用独立网段资源,设计都很固定,就不讨论了

(生产、vMotion和Management网络可以通过Vlan进行隔离(二层),也可以通过路由隔离(三层))

而vMotion和Management单个网卡走单个网络,冗余和部分性能得不到保障。

VMware在ESXI 5.0的Best Practice(最佳实践)中建议如下:

  • 在专用于 vMotion 的单独网络上保持 vMotion 连接。在进行 vMotion 迁移时,客户机操作系统内存的内 
    容将通过该网络传输。通过使用 VLAN 对单个物理网络分段,或者使用单独的物理网络(后者为首选), 
    可以实现这一点。

个人认为就算是最佳实践,也要拿数据说话,忽悠客户是不道德滴。。

那么,在四张网卡(二张网卡给生产)前提下:

  • 为什么vMotion要单独一个网段或网络,和Management公用一个网段或者网络是否可行?

  • 是否建议vMotion网络和Management网络使用同一张网卡呢?

场景一

vm06

vSwitch0 

vmnic2 - Management / Active - vMotion / Active 

在上图中,vMotion和Management网络可以互访,当我们连接vCenter上进行vMotion虚拟机时,会发现vsphere client连接vcenter中断,造成的原因是(Unicast Flooding)单播泛洪,简单的说就是核心交换机1的MAC地址表中包含有vmotion和Management两个信息表,当用户连接时使用的Management的IP地址,而进行vMotion时是另外一个了IP源,交换机就会断掉原有的Client session,从而断掉连接。

以下是网友操作过程中抓的包也证实了这点

20:07:33.351805 a4:ba:db:2d:3e:9a &gt; 00:50:56:74:30:28, ethertype IPv4 (0x0800), length 1514: IP 10.49.5.155.59601 &gt; 10.49.2.49.8000: . 45982380:45983828(1448) ack 1 win 4163 <nop,nop,timestamp 416800893 3266226>

20:07:33.351809 a4:ba:db:2d:3e:9a &gt; 00:50:56:74:30:28, ethertype IPv4 (0x0800), length 1514: IP 10.49.5.155.59601 &gt; 10.49.2.49.8000: . 45983828:45985276(1448) ack 1 win 4163 <nop,nop,timestamp 416800893 3266226>

20:13:33.202985 00:22:19:94:88:f8 &gt; a4:ba:db:2d:3e:9a, ethertype IPv4 (0x0800), length 66: 10.49.2.49.irdmi &gt; 10.49.5.155.62878: . ack 503189697 win 34390 <nop,nop,timestamp 3302215 416836876>

20:13:33.202986 00:22:19:94:88:f8 &gt; a4:ba:db:2d:3e:9a, ethertype IPv4 (0x0800), length 66: 10.49.2.49.irdmi &gt; 10.49.5.155.62878: . ack 503192593 win 34209 <nop,nop,timestamp 3302215 416836876>

详情见http://communities.vmware.com/thread/306862

 

场景二

vm05

vSwitch0 

VMNIC 1 - Management / Active - vMotion / Standby 

VMNIC 2 - Management / Standby - vMotion / Active

在上图中,对比场景一,我们增加了一张网卡,这样在交换机层就不会形成单播泛洪,而且还有冗余,但事实并非如此,如果VMNIC 1 is  Broken ,那么VMNIC 2还是出现了单播泛洪,没有起到应有冗余的作用

 

场景三

VM04

vSwitch0 

VMNIC 1 - Management / Active - vMotion / Standby 

VMNIC 2 - Management / Standby - vMotion / Active

在上图中,我们进行了Vlan划分,从逻辑上隔离了vMotion和Management网络,如果VMNIC 1 坏了,交换机在自己的 MAC Map中也不会认为它们是同一个源,故该设计能够满足需求

 

场景四

VM07

vSwitch0 

VMNIC 1 - Management / Active - vMotion / Standby 

VMNIC 2 - Management / Standby - vMotion / Active

在上图中,我们进行了IP子网划分,在物理上隔离了vMotion和Management网络,如果VMNIC 1坏了,也是可以实现冗余的。

当然有网友会说,Management网络会占用vMotion网络的资源,但我认为管理配置上的操作在session建立后是没有多少资源占用的。

 

那么基于以上四个场景,结论为:

  • vMotion和Management可以使用同一网络,但需要各自使用单独网卡

  • 两张网卡可以实现vMotion和Management网络的冗余(场景三、场景四)

 

如果大家有宝贵的建议,请回复,本人会进行完善,非常感谢。

 

最近做了个项目,发现我忽略了一个知识点,如果Management网络和vmotion网络在同一个网络链路上,管理网断了,虚拟机是不会迁移的,因为vmotion提供迁移的链路也断了。






本文转自 tim2009 51CTO博客,原文链接:http://blog.51cto.com/virtualbox/992666,如需转载请自行联系原作者
相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
2月前
|
网络协议 Java 数据库连接
2023第二届陇剑杯网络安全大赛 预选赛复盘学到的一些经验
2023第二届陇剑杯网络安全大赛 预选赛复盘学到的一些经验
48 6
|
17天前
|
运维 物联网 网络虚拟化
网络功能虚拟化(NFV):定义、原理及应用前景
网络功能虚拟化(NFV):定义、原理及应用前景
35 3
|
2月前
|
负载均衡 监控 网络虚拟化
|
2月前
|
算法 安全 Shell
2024i春秋第四届长城杯网络安全大赛暨京津冀网络安全技能竞赛初赛wp-flowershop+easyre
2024i春秋第四届长城杯网络安全大赛暨京津冀网络安全技能竞赛初赛wp-flowershop+easyre
101 1
|
3月前
|
5G 网络安全 SDN
网络功能虚拟化(NFV)和软件定义网络(SDN):赋能5G网络灵活、智能演进的关键
网络功能虚拟化(NFV)和软件定义网络(SDN):赋能5G网络灵活、智能演进的关键
76 3
|
4月前
|
图形学 缓存 算法
掌握这五大绝招,让您的Unity游戏瞬间加载完毕,从此告别漫长等待,大幅提升玩家首次体验的满意度与留存率!
【8月更文挑战第31天】游戏的加载时间是影响玩家初次体验的关键因素,特别是在移动设备上。本文介绍了几种常见的Unity游戏加载优化方法,包括资源的预加载与异步加载、使用AssetBundles管理动态资源、纹理和模型优化、合理利用缓存系统以及脚本优化。通过具体示例代码展示了如何实现异步加载场景,并提出了针对不同资源的优化策略。综合运用这些技术可以显著缩短加载时间,提升玩家满意度。
194 5
|
5月前
|
网络虚拟化 安全 网络架构
|
4月前
|
安全 网络虚拟化 虚拟化
揭秘网络虚拟化新纪元:从VLAN到VXLAN,跨越物理界限,解锁云时代网络无限可能!
【8月更文挑战第23天】在网络虚拟化领域,VLAN与VXLAN是两种关键技术。VLAN通过标签划分物理局域网为多个独立的逻辑网络,适用于局域网内部虚拟化;而VXLAN作为一种扩展技术,利用VNI极大提升了网络的可扩展性,支持更大规模的虚拟网络,并能跨数据中心和云服务提供商网络实现虚拟机的无缝迁移。两者分别在第二层和第三层实现流量隔离,共同支撑起现代网络架构的灵活性与安全性。
64 2
|
5月前
|
网络虚拟化 数据中心 虚拟化
|
5月前
|
运维 负载均衡 监控