计算网络带宽需求的正确姿势

简介:

不同网络的带宽需求各不相同,如何正确地计算带宽,是创建和维护一个稳定快速网络的关键环节。

大多数网络管理员都知道,带宽是设计和维护稳定LAN或WAN时要考虑的一个重要因素。带宽与服务器不同,后者可以在网络生命周期中反复配置,而带宽则通常是需要在网络设计一开始时就用正确的带宽公式确定出最优值来。

网络带宽

想知道在设计网络时该如何计算带宽需求吗?在这个过程中有哪一些注意事项呢?本文下面将一一解答这一类的问题。

理解带宽

带宽是指网络连接或所连接网卡所支持的数据传输速率。它同时表示容量和时间,是指两点之间在特定时间间隔内所能传输的数据量。它通常以比特每秒(bps)为单位,有时也使用字节每秒(bps)为单位。

网络带宽代表网络连接的容量,但是在确定网络带宽公式时,一定要理解理论吞吐量与实际吞吐量之间的差别。例如,一个1000BASE-T(使用无屏蔽双绞线)千兆以太网(GbE)网络理论上可以支持1,000兆每秒(Mbps)的带宽,但是由于硬件和系统软件的过载问题,实践中是无法达到这种速度的。

在思考如何计算网络带宽需求时,要注意一个问题:不要将带宽与吞吐量混淆在一起,后者指的是速度。虽然高带宽网络通常速度更快,但是也有例外情况。在思考带宽问题时,一个很好的类比就是高速公路上的汽车。高带宽网络就像一条六车道的高速公路,它在任意时刻都可以通过几百辆汽车。低带宽网络则像一条单行道,所有车辆只能依次排队通过。

虽然大型高速公路上的汽车很可能通行速度更快,但是遇到交通拥堵的时候所有车辆都可能停止下来。或者可能出现这种情况,由于一些大型货车占据了公路上大部分位置,至少小汽车也无法在高速公路上快速行驶。类似地,即使一条高带宽网络也可能在遇到一些问题后变慢,如拥塞和高带消耗应用程序。

正是这个问题给带宽需求计算带来了挑战,但是带宽计算公式也一样可能造成问题。如果没有足够的带宽,那么网络就一定会慢。然而,严重过度分配带宽的开销是大多数企业都无法承担的。

那么,应该如何确定符合你带宽要求的正确计算公式呢?这个过程首先要明确这些问题:用户在使用哪一些应用程序,以及这些应用程序的性能服务水平协议是什么?我知道,有一些网络经理只关心有多少用户来自于一个虚拟LAN。但是,你真正要知道的是这些用户将会在网络上做什么事情。有可能200个用户所造成的网络拥塞还不如3个用户的严重。例如,当他们使用一些可怕的客户端-服务器应用程序或者过度使用高带宽服务时,如高清视频会议。

带宽计算公式

计算带宽需求包含2个步骤:

1. 确定可用网络带宽数。

2. 确定特定应用程序所需要的平均使用量。

这两个数值都可以采用字节/秒的单位。可以考虑使用这样的公式:一个GbE网络有125,000,000Bps可用带宽。其计算方法是位数(千兆网络是100亿)除以8,从而得到字节数。

在确定网络带宽之后,还要计算每一个应用程序所使用的带宽数。要使用网络分析程序确定应用程序每秒钟发送网络数据包的字节数。在这个计算过程中,首先要网络分析程序上启动Cumulative Bytes(累计字节数)列。带宽公式的后续计算有:

1. 捕捉运行该应用程序的测试工作站的进出流量。

2. 在解码汇总窗口上,标记出文件传输的初始数据包。

3. 查找到1秒钟后的时间截,然后查询当时的累计字节域。

如果发现应用程序所传输数据量为200,000Bps,那么可以这样计算:125,000,000 Bps ÷ 200,000 = 625 并发用户。这样的话,即使有几百并发用户连网,网络也不会出现问题。

但是,如果改为100Mbps网络,那么计算公式就变为:13,102,000 Bps÷200,000。那么,这个网络所能支持的同时运行应用程序的并发用户不超过60个。因此,知道计算带宽公式是网络管理员要掌握的重要知识。

最后一个建议:捕捉10秒钟的数据,然后再做除法。此外,最好要检查多个工作站,才能保证最终结果真实反映网络总体情况。另外,一定要确定网络的并发用户数量。


本文作者:Jessica Scarpati      

来源:51CTO

目录
相关文章
|
6月前
|
机器学习/深度学习
【从零开始学习深度学习】33.语言模型的计算方式及循环神经网络RNN简介
【从零开始学习深度学习】33.语言模型的计算方式及循环神经网络RNN简介
【从零开始学习深度学习】33.语言模型的计算方式及循环神经网络RNN简介
|
8天前
|
机器学习/深度学习 数据采集 人工智能
基于Huffman树的层次化Softmax:面向大规模神经网络的高效概率计算方法
层次化Softmax算法通过引入Huffman树结构,将传统Softmax的计算复杂度从线性降至对数级别,显著提升了大规模词汇表的训练效率。该算法不仅优化了计算效率,还在处理大规模离散分布问题上提供了新的思路。文章详细介绍了Huffman树的构建、节点编码、概率计算及基于Gensim的实现方法,并讨论了工程实现中的优化策略与应用实践。
54 15
基于Huffman树的层次化Softmax:面向大规模神经网络的高效概率计算方法
|
4月前
|
机器学习/深度学习
神经网络各种层的输入输出尺寸计算
神经网络各种层的输入输出尺寸计算
238 1
|
2月前
|
存储 缓存 算法
|
2月前
|
存储
|
4月前
|
云安全 安全 网络安全
云端防御战线:融合云计算与网络安全的未来策略
【7月更文挑战第47天】 在数字化时代,云计算已成为企业运营不可或缺的部分,而网络安全则是维护这些服务正常运行的基石。随着技术不断进步,传统的安全措施已不足以应对新兴的威胁。本文将探讨云计算环境中的安全挑战,并提出一种融合云服务与网络安全的综合防御策略。我们将分析云服务模式、网络威胁类型以及信息安全实践,并讨论如何构建一个既灵活又强大的安全体系,确保数据和服务的完整性、可用性与机密性。
|
4月前
|
机器学习/深度学习 存储 自然语言处理
天啊!深度神经网络中 BNN 和 DNN 基于存内计算的传奇之旅,改写能量效率的历史!
【8月更文挑战第12天】深度神经网络(DNN)近年在图像识别等多领域取得重大突破。二进制神经网络(BNN)作为DNN的轻量化版本,通过使用二进制权重和激活值极大地降低了计算复杂度与存储需求。存内计算技术进一步提升了BNN和DNN的能效比,通过在存储单元直接进行计算减少数据传输带来的能耗。尽管面临精度和硬件实现等挑战,BNN结合存内计算代表了深度学习未来高效节能的发展方向。
58 1
|
4月前
|
网络协议 算法 网络架构
OSPF 如何计算到目标网络的最佳路径
【8月更文挑战第24天】
65 0
|
6月前
|
存储 机器学习/深度学习 弹性计算
阿里云ECS计算型c8i服务器测评_网络PPS_云盘IOPS性能参数
阿里云ECS计算型c8i实例采用Intel Xeon Emerald Rapids或Sapphire Rapids CPU,主频2.7 GHz起,支持CIPU架构,提供强大计算、存储、网络和安全性能。适用于机器学习、数据分析等场景。实例规格从2核到192核,内存比例1:2,支持ESSD云盘,网络带宽高达100 Gbit/s,具备IPv4/IPv6,vTPM和内存加密功能。详细规格参数表包括不同实例的vCPU、内存、网络带宽、IOPS等信息,最高可达100万PPS和100万IOPS。
|
6月前
|
机器学习/深度学习 算法
**反向传播算法**在多层神经网络训练中至关重要,它包括**前向传播**、**计算损失**、**反向传播误差**和**权重更新**。
【6月更文挑战第28天】**反向传播算法**在多层神经网络训练中至关重要,它包括**前向传播**、**计算损失**、**反向传播误差**和**权重更新**。数据从输入层流经隐藏层到输出层,计算预测值。接着,比较预测与真实值计算损失。然后,从输出层开始,利用链式法则反向计算误差和梯度,更新权重以减小损失。此过程迭代进行,直到损失收敛或达到训练次数,优化模型性能。反向传播实现了自动微分,使模型能适应训练数据并泛化到新数据。
75 2