《思科UCS服务器统一计算》一2.3 I/O子系统

简介:

本节书摘来自异步社区《思科UCS服务器统一计算》一书中的第2章,第2.3节,作者 【美】Silvano Gai , Tommi Salli , Roger Andersson,更多章节内容可以访问云栖社区“异步社区”公众号查看

2.3 I/O子系统

思科UCS服务器统一计算
I/O子系统负责在服务器内存和外部世界之间传输数据。传统上,这种传输是通过服务器主板上兼容PCI(外围组件互联,PCI)标准的I/O总线实现的。开发PCI的目的是让计算机系统的外围设备可实现互联。PCI的历史非常悠久[1],现在的最新版本是PCI-Express。

外围部件互联专业组(Peripheral Component Interconnect Special Interest Group,PCI-SIG)负责开发和增强PCI标准。

PCI Express
PCI Express(PCIe)[2]是一种计算机扩展卡接口格式,旨在替代PCI、PCI-X和AGP。

它消除了困扰所有I/O整合的限制,即服务器总线缺少I/O带宽。目前所有的操作系统都支持PCI Express。

上一代基于总线拓扑的PCI和PCI-X已被点对点连接取代。由此产生的拓扑结构是一个单根联合体的树形结构。根联合体负责系统配置,枚举PCIe资源,管理PCIe树的中断和错误。根联合体及其端点共享单个地址空间,并通过内存读写和中断进行通信。

PCIe使用点对点链接连接两个组件。链接由N个通道(Lane)组成(一个N链接由N个通道组成)。每个通道包含两对电路:一对用于传输,另一对用于接收。

南桥(也称为ICH:I/O控制器集线器)通常会提供多个PCIe通道实现“根联合体”功能。

每个通道与PCI Express端点、PCI Express交换机或PCIe到PCIe桥接器相连,如图2-21所示。

image

在PCIe 1.1中,通道以2.5Gbp/s(在数据链路上的速度为2Gbit/s)的速度运行,可并行部署16条通道(参见图2-23)。可支持的速度从2Gbp/s(1x)到32Gbp/s(16x)。由于协议开销,支持10GE接口需要8x。

image

PCIe 2.0(也称为第二代PCIe)将每个通道的带宽提升了一倍,即从2Gbit/s提高到4Gbit/s,同时也将通道的最大数量扩大到了32x。PCIe 4x足以支持10GE了。

PCIe 3.0将会再增加一倍带宽。最终的PCIe 3.0规范(包括外观规范更新)预计会在2010年年中发布,到2011年就可看到支持PCIe 3.0的产品[3]。要有效支持40GE(千兆以太网)就需要PCIe 3.0,这将是以太网的下一步演进。

目前所有的PCI Express部署都是单根的(Single Root,SR),也就是说,单个I/O控制器中枢(ICH)控制多个端点。

多根(Multi Root,MR)也已发展了一段时间了,但目前还未见到曙光,由于缺少组件和关注,目前还存在诸多问题。

单根I/O虚拟化(Single Root I/O Virtualization,SR-IOV)是PCI-SIG开发的另一个相关的标准,主要用于连接虚拟机和Hypervisor。这将在第3章的“DCBX:数据中心桥接交换”部分中进行介绍。

相关文章
|
6天前
|
机器学习/深度学习 弹性计算 人工智能
阿里云服务器ECS架构区别及选择参考:X86计算、ARM计算等架构介绍
在我们选购阿里云服务器的时候,云服务器架构有X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器、高性能计算可选,有的用户并不清楚他们之间有何区别,本文主要简单介绍下这些架构各自的主要性能及适用场景,以便大家了解不同类型的架构有何不同,主要特点及适用场景有哪些。
|
11天前
|
存储 人工智能 运维
面向AI的服务器计算软硬件架构实践和创新
阿里云在新一代通用计算服务器设计中,针对处理器核心数迅速增长(2024年超100核)、超多核心带来的业务和硬件挑战、网络IO与CPU性能增速不匹配、服务器物理机型复杂等问题,推出了磐久F系列通用计算服务器。该系列服务器采用单路设计减少爆炸半径,优化散热支持600瓦TDP,并实现CIPU节点比例灵活配比及部件模块化可插拔设计,提升运维效率和客户响应速度。此外,还介绍了面向AI的服务器架构挑战与软硬件结合创新,包括内存墙问题、板级工程能力挑战以及AI Infra 2.0服务器的开放架构特点。最后,探讨了大模型高效推理中的显存优化和量化压缩技术,旨在降低部署成本并提高系统效率。
|
11天前
|
存储 人工智能 芯片
面向AI的服务器计算互连的创新探索
面向AI的服务器计算互连创新探索主要涵盖三个方向:Scale UP互连、AI高性能网卡及CIPU技术。Scale UP互连通过ALink系统实现极致性能,支持大规模模型训练,满足智算集群需求。AI高性能网卡针对大规模GPU通信和存储挑战,自研EIC网卡提供400G带宽和RDMA卸载加速,优化网络传输。CIPU作为云基础设施核心,支持虚拟化、存储与网络资源池化,提升资源利用率和稳定性,未来将扩展至2*800G带宽,全面覆盖阿里云业务需求。这些技术共同推动了AI计算的高效互联与性能突破。
|
2月前
|
机器学习/深度学习 弹性计算 人工智能
阿里云服务器架构有啥区别?X86计算、Arm、GPU异构、裸金属和高性能计算对比
阿里云ECS涵盖x86、ARM、GPU/FPGA/ASIC、弹性裸金属及高性能计算等多种架构。x86架构采用Intel/AMD处理器,适用于广泛企业级应用;ARM架构低功耗,适合容器与微服务;GPU/FPGA/ASIC专为AI、图形处理设计;弹性裸金属提供物理机性能;高性能计算则针对大规模并行计算优化。
|
3月前
|
存储 固态存储 安全
阿里云服务器X86计算架构解析与X86计算架构云服务器收费价格参考
阿里云服务器架构分为X86计算、Arm计算、高性能计算等多种架构,其中X86计算是用户选择最多的一种架构,本文将深入探讨阿里云X86计算架构的云服务器,包括其技术特性、适用场景、性能优势以及最新价格情况。
|
3月前
|
编解码 弹性计算 应用服务中间件
阿里云服务器Arm计算架构解析:Arm计算架构云服务器租用收费标准价格参考
阿里云服务器架构分为X86计算、Arm计算、高性能计算等多种架构,其中Arm计算架构以其低功耗、高效率的特点受到广泛关注。本文将深入解析阿里云Arm计算架构云服务器的技术特点、适用场景以及包年包月与按量付费的收费标准与最新活动价格情况,以供选择参考。
|
3月前
|
监控 Serverless 云计算
探索Serverless架构:无服务器计算的新纪元
Serverless架构作为云计算的新范式,让开发者无需管理服务器即可构建和运行应用,从而专注于代码开发。其核心优势包括成本效益、自动扩展及高效部署。通过事件驱动模型和微服务部署,开发者按需付费,减少了资源浪费。尽管面临冷启动、状态管理和调试等挑战,Serverless架构仍凭借其高效性与可扩展性展现出广阔的应用前景。流行平台如AWS Lambda、Azure Functions等使其实施更为便捷。
|
3天前
|
弹性计算 数据挖掘 应用服务中间件
阿里云轻量应用服务器68元与云服务器99元和199元区别及选择参考
目前阿里云有三款特惠云服务器,第一款轻量云服务器2核2G68元一年,第二款经济型云服务器2核2G3M带宽99元1年,第三款通用算力型2核4G5M带宽199元一年。有的新手用户并不是很清楚他们之间的区别,因此不知道如何选择。本文来介绍一下它们之间的区别以及选择参考。
149 84
|
13天前
|
机器学习/深度学习 人工智能 PyTorch
阿里云GPU云服务器怎么样?产品优势、应用场景介绍与最新活动价格参考
阿里云GPU云服务器怎么样?阿里云GPU结合了GPU计算力与CPU计算力,主要应用于于深度学习、科学计算、图形可视化、视频处理多种应用场景,本文为您详细介绍阿里云GPU云服务器产品优势、应用场景以及最新活动价格。
阿里云GPU云服务器怎么样?产品优势、应用场景介绍与最新活动价格参考
|
12天前
|
存储 运维 安全
阿里云弹性裸金属服务器是什么?产品规格及适用场景介绍
阿里云服务器ECS包括众多产品,其中弹性裸金属服务器(ECS Bare Metal Server)是一种可弹性伸缩的高性能计算服务,计算性能与传统物理机无差别,具有安全物理隔离的特点。分钟级的交付周期将提供给您实时的业务响应能力,助力您的核心业务飞速成长。本文为大家详细介绍弹性裸金属服务器的特点、优势以及与云服务器的对比等内容。