巧解数据中心网络性能瓶颈问题

简介:
+关注继续查看

解决日益增加的网络流量问题,方法可不止一种,从廉价的快速修复战略,到高级战略投资与资本重组。新技术可以提高网络容量并改进网络结构,解决骨干网性能瓶颈以及大多数以太网连接问题。某些情况下,简单的操作,就可以减轻不少压力。

数据中心网络性能问题可通过简单的修复重组策略解决。

随着IT向服务器增加I/O与通信密集型应用,数据中心网络压力急剧增加。

预装的千兆内置网卡已经不再能够支撑,并且在大多数情况下万兆以太网卡也可能成为网络瓶颈。

解决日益增加的网络流量问题,方法可不止一种,从廉价的快速修复战略,到高级战略投资与资本重组。新技术可以提高网络容量并改进网络结构,解决骨干网性能瓶颈以及大多数以太网连接问题。在某些情况下,简单的操作,就可以减轻不少压力。

 巧解数据中心网络性能瓶颈问题

给服务器安装更多的存储

改变数据流是低成本的快速解决网络瓶颈的方法之一。一个例子就是将流量从网络转储转移到服务器内部。

Google将存储本地化到多个服务器上,然后安排这些应用程序使用最近的存储中的数据。这种方式可以让你只需简单添加机柜交换机的端口,甚至只需两台交换机,以此实现结点的双以太网端口连接。

同样还可以给存储结点选择四个或更多端口配置的服务器,通过更多的端口进出流量来解决网络瓶颈。几乎所有数据都是通过机架顶端的交换机,降低延迟,也能大幅度降低与骨干网的数据交互。

数据库

数据库优化方案就不同了。最高效的模型是使用动态随机存储存储器(DRAM)的双列直插式内存模块所构成的大型计算池,创建一个内存数据库。理想情况下,IT组织会根据需求购买最新的旗舰级服务器,内存最高可达6TB,当然旧服务器一样也要使用。

还有一种用于辅助内存数据库架构的方式,是给服务器配置固态硬盘存储(SSD)。这样可以作为网络存储资源或DRAM的暂存缓冲器使用。两种方法都可以减轻网络负载,但万兆以太网可能跟不上今年内的最新系统,即使同时使用两个端口。

虚拟化

采用x86服务器集群来进行虚拟化十分普遍,但也为自己带来了网络瓶颈问题。臭名昭彰的启动风暴就是网络饱和的一个现象;即使在稳定状态运行时,创建一个新实例也会增加负载,就如千兆字节的数据要从网络存储传输到服务器。

在这种情况下,将传统虚拟化向容器模型庄毅。这意味着放弃能够创建任何操作系统的灵活性,但这通常都不是问题。

采用容器方法,减少网络同学,需要服务器的所有实例都使用相同的(支持容器)操作系统。DRAM空间会因为单一操作系统与应用程序栈而有所节约,还能让实例数增加,并且更快启动。但是如果应用程序实例是网络或者I/O密集型,那么还是会产生压力。

未来的技术方案

采用4万兆以太网(四车道)链路连接交换机十分常见,我们正在寻找10万兆以太网作为万兆以太网替代方案。这种趋势正在不断推进,目前已经推出了25千兆以太网,支持采用四车道,价格也相对低廉,10万兆以太网主要用于存储设备以及交换机之间互联。

数据中心可以使用25千兆以太网用于现有布线机架和交换机之间连接。不幸的是,你无法使用现有的适配器,而必须使用PCIe卡或新增结点。即使如此,替换现有的机顶机架交换机来创建一个10/100千兆以太网络环境,不仅经济,而且还能大幅提升整体集群性能。

这种新技术循序进入市场,也反应了云服务提供商的需求。目前使用25千兆链路的项目一般都不超过12个月,根据IEEE的批准设置纪录时间表。网络接口卡与交换机的生产预计在2015年下半年。

同样还可以使用50千兆以太网双通道管道技术。更快的速度可以容纳更大的服务器以及在内存中运行大数据分析,每台服务器至少要两个连接接口。按照这样的趋势下去,高性能计算拥有大量核心数的CPU或GPU,数据饥饿有可能成为问题,因为将TB级的数据装入内存也需要花上一些时间。

基于软件的修复同样还可以解决网络瓶颈问题。软件定义网络可以为服务器之间通过骨干线路传输负载任务。

随着存储与架构性能的快速增长,网络将是未来十年内创新的最前沿,所以演变因该是非常快速的。


作者:Harris编辑

来源:51CTO

相关文章
|
3月前
|
负载均衡 网络安全 数据中心
联盟时代V.跨数据中心L3网络
通过NSX Federation解决方案,用户可以轻松地实现业务网络的跨数据中心延伸,这提供了工作负载跨数据中心部署和迁移的可行性。NSX微分段能提供工作负载跨数据中心一致的安全防护,对于工作负载(虚拟机\容器\裸金属)来说,NSX构建的虚拟云网络是一个庞大可靠的网络资源池。在上次分享中,笔者分享了Federation架构下,跨数据中心L2网络的实现过程和基本原理。今天笔者将继续往前推进,说一说跨数据中心L3网络的实现。这其中涉及到东西向的分布式路由以及连接NSX网络与物理网络的静态\动态路由。现在,就让我们开始吧!
|
3月前
|
运维 容灾 数据中心
联盟时代IV.跨数据中心L2网络
对于诸如两地三中心、多云容灾等命题来说,NSX是非常优秀的解决方案之一;实现上述命题的关键钥匙在于L2网络的跨数据中心延伸。就NSX解决方案本身来说,其构建的虚拟云网络能让用户在部署工作负载时,不必局限于地点,也不必拘束于网络限制,且能让工作负载在多数据中心之间实现无缝地迁移。 今天的分享主要说说分段Segment在Federation架构下的跨数据中心延伸的实现。
|
7月前
|
网络协议 网络虚拟化 数据中心
「数据中心」脊叶网络架构:Cisco VXLAN MP-BGP EVPN脊叶网络
「数据中心」脊叶网络架构:Cisco VXLAN MP-BGP EVPN脊叶网络
154 0
|
7月前
|
网络虚拟化 数据中心 网络架构
「数据中心」网络架构脊页架构:Cisco VXLAN 泛滥学习 脊页网络
「数据中心」网络架构脊页架构:Cisco VXLAN 泛滥学习 脊页网络
145 0
|
7月前
|
网络协议 网络安全 网络虚拟化
「数据中心」数据中心脊页架构:思科FabricPath Spine和Leaf网络
「数据中心」数据中心脊页架构:思科FabricPath Spine和Leaf网络
|
7月前
|
Devops 网络安全 数据中心
「数据中心」Cisco数据中心脊页架构:覆盖(Overlay)网络
「数据中心」Cisco数据中心脊页架构:覆盖(Overlay)网络
|
8月前
|
存储 负载均衡 安全
IT知识百科:什么是超融合数据中心网络?
IT知识百科:什么是超融合数据中心网络?
135 0
|
9月前
|
缓存 人工智能 Cloud Native
全球光通信顶会OFC2023 阿里云多位专家分享数据中心光网络创新
全球光通信顶会OFC2023 阿里云多位专家分享数据中心光网络创新
全球光通信顶会OFC2023 阿里云多位专家分享数据中心光网络创新
|
10月前
|
数据中心
|
10月前
|
存储 人工智能 运维
大型数据中心内的网络“甜点”——阿里巴巴自研DAC之路
大型数据中心内的网络“甜点”——阿里巴巴自研DAC之路
大型数据中心内的网络“甜点”——阿里巴巴自研DAC之路
推荐文章
更多