半宽机箱里的HyperScale:天蝎、OCP们来看看吧

简介: - Artesyn MaxCore Hyperscale平台; - 双Xeon D微服务器计算子卡; - PCIe to双100Gb智能交换网卡; - 利用Intel GT4e集成显卡转码/编码视频; - MaxCore架构与硅光互连的思考

无意中发现了一款比较有特色的硬件,在网上查阅资料,费了好大劲才算基本搞清楚。说高密度吧?计算可能不是最强;说高可扩展性吧?网络I/O带宽并不惊人。然而我却在其中看到了RSDRack Scale Design)资源池化的影子,也算是补充了自己知识的空白吧。

 

Artesyn MaxCore Hyperscale平台

 


这款设备的名字叫做MaxCore Hyperscale(超大规模平台)——适用于DellDSS 9000的机架式高密度计算和媒体平台,也可用于OCP环境。它来自Artesyn(雅特生),一家专业做嵌入式计算和嵌入式电源的公司,之前我也不熟悉。

 

具体点说,就是可用于DSS 9000整机架服务器中的一个半宽子机箱(DSS 9050 sub-chassis里,支持最多288Xeon D CPU内核(全宽2个节点就是576 Core)、100Gb输入输出,还支持各种用于媒体转码和优化的PCIe加速卡。内建PCI ExpressFabric架构,完整的SDN/NFV 数据包转发和虚拟化支持。

 


单论计算密度的话,以上图中的2U PowerEdge FX2平台为例,配置8FC430双路Xeon E5服务器节点,虽然也能支持288个核心,但E5的主频要比Xeon D高不少。如果只是纯CPU计算的HPC集群,我想MaxCore Hyperscale估计不划算,这种不太标准化的设备销量有限估计不便宜。显然它还有别的长处。

 


Dell DSS 9000机架,我在《RSA整机架服务器DSS 9000现身数博会》一文中写过实物解析

 

 


上图就是两台MaxCore Hyperscale并排放在一起,我感觉应该是3U的高度。下面来看看它的规格概要:

 

MaxCore Hyperscale

ƒ设计用于戴尔 DSS 9000 机架架构

ƒ灵活的可配置型 PCIe 交换,半标准宽度托架可容纳多达九 (9) PCIe

ƒ每插槽最高 150W

ƒ2x 10G 接口,支持 SR-IOV,所有插槽中的所有卡之间均可共用

ƒ4x 2.5”驱动盘位和 14x M.2 SSD 插槽

ƒSharpServer 英特尔 Xeon D 微服务器卡

ƒSharpSwitch 100G 智能 NIC,具备vSwitch 卸荷功能

ƒ可选配媒体转码加速器

 

首先,在一个半宽机箱中可以插9PCIe(不是普通的卡哦),6PCIe Gen3x16 3Gen3 x8之间通过PCIe交换互连。210Gb以太网口,通过SR-IOV在所有插槽的PCIe卡之间共用,这只是基本网络。

 

2个热插拔托架上的42.5英寸SATA驱动器位,用于机箱中PCIe插槽19的主机;最14M.2 228080mm尺寸)SSD插槽直接访问PCIe插槽2-8的主机。有点意思吧:)

 

3种“PCIe插卡”:SharpServerIntel Xeon DCPU服务器子卡;SharpSwitch不是个普通的双100Gb端口网卡,从名字可以看出它带有交换功能;另外,还可以选配一种SharpStreamer媒体转码加速器。

 

Xeon D微服务器计算子卡

 

不难看出2Xeon D SoC和对应内存的分布位置。连接“底板”的金手指,左边是一个PCIe x16,右边的不太标准,具体用途后面我再解释。

 

SharpServer™ PCIE-7410

MaxCore™ 服务器卡

ƒIntel® Xeon® D 处理器卡,适用于高密度微服务器应用

ƒ标准高度、标准长度的 PCI Express 外形尺寸,单插槽

ƒ一个或两个 8 核英特尔 Xeon D-1541 处理器

每个处理器最大支持 64GB DDR4 内存

多达 4 PCI Express Gen3 x4 接口

每个处理器均支持本地闪存大容量存储

2x 1Gbps 以太网,可选配内部以太网基础架构

ƒ每个处理器配备 USB、重置按钮和 COM端口

ƒ软件支持包括:

Linux KVM

Intel® DPDK

多主机 PCI Express 输入/输出虚拟化

 

上面引用的中文资料可能有点老,写的还是8Xeon D处理器,要满配216CPU才能达到前面所说的半宽机箱288核密度。Xeon D的好处是SoC不用加PCH芯片,但不支持多处理器,所以一块SharpServer PCIE-7410上就是2个节点,前面提到的M.2 SSD正好每节点1个。

 

4PCIe Gen3 x4应该是合并在物理x16的金手指上,如果SharpServer插在x16插槽里,每个Xeon DCPU分到2PCIe x4;要是在x8插槽里工作,每个CPU就只有1PCIe x4了。

 

暂时先介绍这么多,互连啥的后面还会讲。

 

PCIeto100Gb智能交换网卡

 

这块卡上可以看出2颗不同的处理器,还有金属挡片上2QSFP高速网络接口。

 

SharpSwitch™ PCIE-9205

MaxCore 智能网络接口卡

ƒ适用于高带宽应用的高性能 输入/输出卡

ƒ标准高度、标准长度的 PCI Express 外形尺寸,单插槽

ƒIntel® 以太网多主机控制器 FM10840,配备:

2x QSFP28 实现最高 200Gbps 的输入/输出带宽

PCIe 3x16 ~ 100GE 聚合系统带宽

ƒ软件支持包括:

L2/3 交换

负载均衡

虚拟交换机

通过 Open vSwitch OVSDB 实现OpenFlow

基于 LBaaS 代理和 DPDK OpenStack

软件

ƒIntel® Xeon® D-1541 处理器

最大 64GB DDR4

PCI Express Gen3 x8 接口,连接到FM10840 交换机

 

SharpSwitch PCIE-9205的作用是SharpServer之间的高速网络交换,并对外提供2100Gb以太网口,也会占用1PCIe插槽。它的主芯片缺不是常规网卡用的,下面先看看“以太网多主机控制器FM10840”的特点:

 


Intel Ethernet Multi-host Controller FM10000家族我多少有点印象,在前几年的IDF上好像介绍过。用途大概和RSDRack Scale Design)整机架资源池化的互连有关。

 

SharpSwitch卡上似乎还不能充分发挥FM10840的规格。我理解在MaxCore Hyperscale机箱里它应该插在PCIe插槽19,并且是PCIe x16规格。提供4PCIeendpoint以太网控制器连接到SharpServer(最多64VF),另外2PCIe endpoints面向卡上本地的一颗Xeon-D CPU——用于MaxCore系统管理

 

对内一共PCIe Gen3 x16提供相当于100GbE12.5GB/s单向带宽应该ok,对外可以是2100Gb以太网,也可以向下兼容40Gb,或者通过转接线分出825Gb / 810Gb端口

 


本文中介绍的Artesyn就是将Intel FM10000用于多主机模块化服务器平台

 


网络和SDN我比较外行,OpenStack也了解有限。上图一方面给大家参考,另一方面也是想说明“基于PCIe的网络通信”,PEX-VF估计是用于虚拟机的网卡吧。

 

利用Intel GT4e集成显卡转码/编码视频

 

左上方的短卡带有1Xeon E3-1578Lv5 CPU,长卡则是2

 

SharpStreamer™ Pro PCIE-7210

高密度视频处理加速器

ƒH.264/AVC H.265/HEVC 转码和编码、VDI 应用和图像处理设备等应用的理想选择

ƒ标准高度、半标准长度或标准长度的 PCI Express 外形尺寸

ƒ每张卡多达 4 HD HEVC 转码流

ƒ每张卡多达两 (2) 4KP30 HEVC 编码流

ƒ1x 2x IntelXeonE3-1578L v5 GT4e 可扩展视频处理引擎

ƒ每个 CPU 配备 PCI Express Gen3 x8 接口

 

看完了服务器和网络子卡,再来看看SharpStreamer Pro PCIE-7210,它的主要用途就是视频转码和编码,和我之前在《一块卡上有3Xeon:这是干啥用的?》一文里介绍的IntelVisual Compute AcceleratorVCA)是干同样事情的。

 

PCIE-7210上使用的CPU已经是新一代的Skylake——Xeon E3-1578L v5,而其视频处理引擎是靠集成的GT4e显卡,Intel Iris ProGraphics P580VCA上面GT3e的下一代产品,同样128MB eDRAM。它们能够提供的功能,是普通集成显卡和《Xeon核显遇上3ds MaxSolidworksT30评测之二》中介绍过的入门级工作站显卡HD Graphic P530所不具备的。

 

具体到性能指标,每张卡可以实时转码4HD HEVC高清视频流,或者编码24KP30 HEVC。注意这里可是实时处理哦,4K分辨率逐行、每秒30帧。

 


这个架构图帮我了解很多。与Xeon D SoC不同,为了Xeon E3需要搭配PCH,此外一块SharpStreamer上的2套子系统还各自添加Intel 82599网卡实现内部通信。这里可以看到两段金手指的定义了——First Edge是来自两颗CPUPCIe x8Second Edge则包括了PCH引出的4SATA2USBPCIe 3.0 x1LPC

 

SharpStreamer加速卡是做为一个特殊的PCIe设备,连接到SharpServer子卡。

 


关于视频转码应用方案,我借用了MaxCore平台中另一款3000机型的资料。

 

MaxCore架构与硅光互连的思考

 

全宽机箱的MaxCore 3000支持15PCIe子卡模块

 

由于MaxCore Hyperscale的资料有限,我再引用一些MaxCore 3000的资料做为辅助说明。

 


MaxCore 3000的底板上,中间两颗最大的芯片就是PCIe Switch

 


MaxCore 3000有上面这种配置方式:11PCIe 7410计算子卡+4RRCSharpSwitch PCIE-9205)网络子卡SharpSwitch经由PCI ExpressFabric交换架构将网卡映射给SharpServer,可以SR-IOV的形式“直通”给虚拟机。

 


上图引用自OCP资料中的Intel草案文档《DesignGuide for Photonic Architecture》,也就是有段宣传比较多的“硅光互连”(我曾经把它和Omni-Path搞混过)。其中的Switch应该就有Intel FM10000系列,种种因素导致它未能在RSD整机架服务器中普及,而这次却出现在了MaxCore机箱内部。

 

我还班门弄斧写过两篇《IDF随笔:RSA|天蝎存储池化的理想与现实》、《ODCC随笔:整机柜资源池化需要高可用吗?》,朋友们给出的结论是一个PCIe Fabric覆盖的故障域内允许单点故障。不过,在机架范围内,PCIe用于箱外连接其数量和长度还是可能影响可用性。相比之下,Artesyn MaxCore的机箱内PCI ExpressFabric我觉得倒是一种不错的应用。

 

主要针对互联网/云服务商的Dell DSS9000样机

 

最后,再简单聊下MaxCore HyperscaleDell之间的关系,会不会是某一家大客户在DSS 9000整机架服务器上产生了相关需求,从而促成该产品出现呢?

目录
相关文章
|
3月前
|
运维 安全 数据安全/隐私保护
下次遇到PPP接口协议Down,这样处理,敢不敢试试?
下次遇到PPP接口协议Down,这样处理,敢不敢试试?
|
1月前
|
数据中心 网络虚拟化 虚拟化
|
2月前
|
人工智能 Linux 开发工具
Zynq MPSoC折腾 —— 开篇
Zynq MPSoC折腾 —— 开篇
|
6月前
|
IDE 编译器 开发工具
学习STM32,该用哪款开发工具?
学习STM32,该用哪款开发工具?
133 1
单片机外围模块漫谈之五,USB开发,这个错误你犯了吗?
单片机外围模块漫谈之五,USB开发,这个错误你犯了吗?
|
设计模式 Java 程序员
网上99%的建造模式都说错了,只看这一篇就够
网上99%的建造模式都说错了,只看这一篇就够
68 0
|
前端开发 Oracle JavaScript
分享自己接私活常用的开源系统
分享自己接私活常用的开源系统
153 0
|
API 数据处理
2022年十月份电赛OpenMV巡线方案(2)---主控代码详细分析
2022年十月份电赛OpenMV巡线方案(2)---主控代码详细分析
182 0
|
存储 测试技术 Go
10秒改struct性能直接提升15%,产品姐姐都夸我好棒
如果您以前写过 Golang ,那您很可能见过或者写过 Struct 结构体。但是,您可能不知道,通过简单地重新排序结构体中的字段,您可以极大地提高 Go 程序的速度和内存使用率!
122 0
|
数据中心 网络架构
1U、2U、标准19寸机架是什么意思?这篇文章讲的很明白!
如果您一直从事跟服务器硬件相关的工作,那么对“1U”、“2U”、“3U”等概念肯定不陌生。
1118 0
1U、2U、标准19寸机架是什么意思?这篇文章讲的很明白!