浅析PCIe系统性能

本文涉及的产品
数据传输服务 DTS,数据迁移 small 3个月
推荐场景:
MySQL数据库上云
数据传输服务 DTS,数据同步 1个月
简介: Raw Bit Rate,翻译过来就是原始比特率。那么,这个原始比特率(RBR)与真实的数据传输速度之间是什么关系呢?有什么区别?这就是我们本篇文章想要思索的问题。

PCIe是一种高速串行计算机扩展总线标准,与SATA相比,具有很多改进的地方,比如更高的最大系统总线吞吐量,较少的IO引脚数,更小的物理占位面积和更好的总线设备性能扩展。PCIe总线是高速差分总线,采用端对端的数据传输方式。随着PCIe技术不断发展与进步,目前市场上应用最多的还是2015年发布的PCIe Gen3。在2017年6月份的时候,PCIe Gen4已经发布,市场上目前也可以买到Gen4的固态硬盘了。在2019年的时候,Gen5也正是发布,速度更是达到128GB/s, 性能越来越强劲,

不过,目前Gen5 SSD还没规模上市,大家还需要在耐心等待下。

在上图中有一个栏位,名称叫做Raw Bit Rate,翻译过来就是原始比特率。那么,这个原始比特率(RBR)与真实的数据传输速度之间是什么关系呢?有什么区别?这就是我们本篇文章想要思索的问题。

一、数据传输速率定义

在PCIe总线中,事务传输类型有四种,Memory,IO,Configuration,Message,如下图。

不过,PCIe系统针对传输速率的优化都主要集中提高Memory类型事务的传输速率,所以,我们在这里提到的传输速率,主要是Memory data的传输速率。本文主要以理论分析为主,内容仍然以主流的Gen3为主,Gen4/5可以作为参考。

PCIe Spec定义Gen1的最大传输速率是2.5Gb/s, Gen2的最大传输速率是5.0Gb/s, Gen3的最大传输速率是8.0Gb/s. 在这里的最大传输速率指的是单lane单向的原始比特传输速率(Raw bit rate), 并不是PCIe系统中真正的数据传输速率。因为在PCIe系统存在一定的数据传输开销设计取舍

二、数据传输开销

任何数据在PCIe系统传输,都会产生一定的开销。我们从以下五个方面探究一下:

(1) 数据编码: Gen1/2 8b/10b & Gen3 128b/130b

Gen1/Gen2采用8b/10b编码,直观的理解,就是把8bit数据转换为10bit数据传输,目的就是维持"直流平衡(DC Balance)",让1和0传输数目相等。因为高速串行传输过程中,如果有连续多位1或者0没有变化,那么,信号传输就会由于电压位阶的关系而发生错误。

Gen1/Gen2采用8b/10b编码进行数据传输,就相当于多了20%左右的传输开销。同理,Gen3采用了128b/130b编码传输,就等于多了2%左右的开销

(2) TLP数据包开销

PCIe属于封装分层协议,数据报文在Device Core产生之后,在分别经过事务层(Transaction Layer)、数据链路层(Data Link Layer)、物理层(Physical Layer)之后会依次被增加ECRC,Sequence Number,LCRC,Start,END等数据块。

Gen2 TLP:Gen3 TLP:

不过,需要注意的是,Gen1和Gen2有End标识符,Gen3则没有End标识符。

TLP header有两种选择12 bytes或者16bytes,主要与Memory Read/Write TLP中采用32位地址或者64位地址有关。

如果采用32位地址,那么TLP Header的长度是12bytes:

如果采用64位地址,那么TLP Header的长度是16bytes:

所以,在TLP传输过程中,就增加了20~30 Bytes的开销

(3) 流量开销(Traffic Overhead)

在数据链路层(Data link layer)和物理层(Physical Layer)都会引入流量开销(Traffic Overhead).

数据链路层在PCIe总线中的作用就是保证来自事务层TLPs的正确传输。为了实现这一目的,数据链路层又定义了DLLP(Data Link Layer Packets)。DLLP产生于数据链路层,终止于数据链路层。定义的DLLP数据类型主要有Ack, Nak, PM,FC等,如下图。

在PCIe Link达到正常的工作状态(L0)之后,如果两个交互port口之间存在延时,那么这个时候就需要物理层插入SKP Order sets来补偿PCIe链路中的延时。对于Gen1/Gen2, SKP OS的大小为4 Bytes;对于Gen3, SKP OS的大小一般为16 Bytes. PCIe Spec规定,在TLP传输过程中,不允许插入Order Sets,SKP OS只能在TLP传输间隙进行。

所以,Ack/Nak/PM/FC等DLLP和Order Sets也都会影响到数据传输的速率

(4) 协议开销

PCIe Spec规定,发送端发送TLP之后,需要接受端回应Ack或者Nak, 以得知发送的TLP是否被成功接收。发送端需要将TLP保存在TLP retry buffer中,直到收到Ack成功接收的回应。如果不幸的收到了Nak未成功接收的回应,那也不怕,只要将放在TLP retry buffer中的TLP再次发送,直到被正确接收。

如果发送每个TLP之后,都要求对应一个Ack回应,那么,当发送多个TLP时,就需要对应多个Ack回应,这样的话,会严重的增加PCIe链路中的数据传输开销。为了减少这方面的开销,PCIe Spec允许发送多个TLP后,有一个Ack回应就可以。如下图,发送5个TLP,收到一个Ack回应。

这样做的好处可以降低开销,但是不能消除开销。

此外,之前PCIe专题的介绍中,我们提到过PCIe中总线事务有两大类:Non-Posted和Posted:

  • Non-Posted: 需要completion返回响应包;
  • Posted: 不需要completion返回响应包.

当我们发送一个Non-Posted Memory Read TLP之后,就需要等待Completion TLP回应。这个过程也会增加数据传输的延时。

(5) 流量控制(Flow Control)机制的开销

在PCIe链路中,我们不能一直发送TLP,而是需要接受端有足够的接受空间之后,才能继续发送TLP,这个过程就是PCIe协议中的流量控制(Flow Control)机制。

接收端会通过不断地发送FC DLLP来告知发送端,此时接收端可用Buffer的大小。如果接收端的Buffer快满时,发送端就会停止发送TLP,这样做的目的就是防止Buffer空间不足而造成TLP被丢弃。

所以,接收端可用Buffer的大小很大程度上也会影响着数据传输速率

三、系统参数对传输速率的影响

除了上面提到的协议和流量开销外,对传输速率也有一定影响的因素就是系统参数,比如MPS(Maximum Payload Size), MRRS(Maximum Read Request Szie),RCB(Read Completion Boundary)等。

(1) MPS(Maximum Payload Size)

PCIe协议对MPS支持的大小有6种: 128B,256B,512B,1024B,2048B,4096B.

PCIe系统中的最大负载MPS是在上电枚举和配置阶段定义的,以PCIe系统中最小MPS为准。比如,下图,RC,Switch,Endpoint都有不同的MPS设置,那么,就取最小MPS 128 Bytes为准。这个过程,类似水桶原理。

MPS的大小影响着数据传输的效率。数据包传输效率计算公式:

我们假设TLP中的Header大小为12 Bytes, 同时没有ECRC,这样的话,TLP传输就有20bytes的额外开销。那么,不同MPS大小对应的数据包传输效率计算结果如下:

从计算结果来看,随着MPS的增加,数据包的传输效率在增加,但是增幅在变小,作个曲线表示如下:

(2) MRRS(Maximum Read Request Size)

PCIe协议中,MRRS代表着读请求最大Size,对于MRRS选择,同样有6种:128B,256B,512B,1024B,2048B,4096B. 这个参数也是在Configuration阶段,写入到设备的control寄存器。

由于不携带任何数据,所以每次的读请求都是一笔额外的开销。如果我们设定MRRS为128B,我们读64KB数据时,就需要发送512(64KB/128B=512)次读请求,这样的话,就增加了很多额外的开销,对数据传输速率也是一种伤害。

(3) RCB(Read Completion Boundary)

在发送一个Non-Posted Memory Read TLP之后,接收端就会通过回应Completion TLP,并返回目标数据。在这个过程汇中,一个Memory Read TLP请求,可能会收到多个Completion TLP。这主要取决一个参数,叫做RCB。RCB是一个限定Read Completion边界的参数,要求64Bytes或者128BBytes地址对齐, 如下图。不过,大多数情况下,RC/Endpoint都是采用64Bytes对齐。

RCB这个参数在哪里设定呢? 众里寻他千百度,蓦然回首,它就在Link Control Register Bit[3],如下图.


举个RCB=64 Bytes的例子: 从地址0x10028开始读取256B数据。

由于Root Complex要求以64Bytes对齐,第一笔数据读取的时候只读到24Bytes, 之后三笔数据大小为64Bytes, 最后一笔数据读到40Bytes. 在这里,用5笔Completion TLP完成了Memory Read TLP 256B数据的请求。


单笔64B数据包的传输效率=64B/(64B+20B)=76%. 所以,多笔Completion TLP会造成数据传输效率降低。


四、写入吞吐量(Write Throughput)计算方式

假设Write TLP的数量是50, MPS=512B,PCIe系统是Gen1 x8.

(1) 计算Symbol Time

我们知道是Gen1,传输速率是2.5Gb/s. 那么,

Symbol Time(由于8b/10b编码, 在这里指传输10bit的时间)=10b/2.5Gb/s=4ns.

因为是8 lane,那么,每4ns可以发送8Byte数据。

(2) 计算TLP和DLLP传输时间

在MPS=512B,32bit地址的情况下,Memory Write TLP的传输时间就等于:

[(512B payload+ 20B overhead)/8B/Clock]*4ns/Clock=266 ns.

DLLP的传输时间就等于:

[8B / 8B/Clock] * [4ns/Clock] = 4 ns.

另外,我们在这里假设,每传输5个TLPs, 对应一个Ack DLLP。每传输4个TLPs,有一个FC update DLLP.

(3) 计算传输带宽

传输数据总量(Bytes)=50 posted writes × 512 bytes/posted write = 25,600 bytes.

传输时间=(50 × 266 ns) + (10 × 4 ns) + (13 × 4 ns) = 13,392 ns.

传输带宽=[25,600 bytes / 13,392 ns]  = 1.912 GB/s.

五、读取吞吐量(Read Throughput)计算方式

假设读取数据量=4096B, MRRS=256B,PCIe系统是Gen1 x8.

(1) 计算Symbol Time

我们知道是Gen1,传输速率是2.5Gb/s. 那么,

Symbol Time(由于8b/10b编码, 在这里指传输10bit的时间)=10b/2.5Gb/s=4ns.

因为是8 lane,那么,每4ns可以发送8Byte数据。

(2) 计算TLP和DLLP传输时间

在32bit地址的情况下,Memory Read TLP的传输时间等于:

[20B overhead/8B/Clock]*4ns/Clock=10 ns.

DLLP的传输时间就等于:

[8B / 8B/Clock] * [4ns/Clock] = 4 ns.

假设RCB(Read Completion Boundary)=64 Bytes,所以,多数的Completion TLP都是64B大小。

Memory Read Completion TLP传输时间等于:

[(64 bytes payload + 20 bytes overhead) / 8 bytes/clock] × [4 ns/clock] = 42 ns.

另外,我们在这里假设,每传输5个TLPs, 对应一个Ack DLLP。每传输4个TLPs,有一个FC update DLLP. 从发送Read请求,到Completion产生的时间为300ns.

(3) 计算传输带宽

传输数据总量(Bytes)=4096 bytes.

传输时间=(16 × 10 ns) + (16 × 300 ns) + (64 × 42 ns) + (16 × 4 ns) + (20 × 4 ns) = 7,792 ns.

传输带宽=[4096 bytes / 7,792 ns] = 523 MB/s.


声明: 本文内容参考PCIe Spec, MindShare以及Xilinx White Paper. 非常感谢!

相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
4天前
|
存储 固态存储 数据库
|
6月前
|
存储 算法 芯片
关于内存芯片的电流消耗机制的介绍
关于内存芯片的电流消耗机制的介绍
53 0
|
存储 固态存储 测试技术
服务器硬件RAID性能横评(2)
服务器硬件RAID性能横评(2)
服务器硬件RAID性能横评(2)
|
存储 缓存 固态存储
服务器硬件RAID性能横评(1)(上)
服务器硬件RAID性能横评(1)
服务器硬件RAID性能横评(1)(上)
|
存储 固态存储 测试技术
服务器硬件RAID性能横评(3)
服务器硬件RAID性能横评(3)
服务器硬件RAID性能横评(3)
|
存储 负载均衡 固态存储
服务器硬件RAID性能横评(4)
服务器硬件RAID性能横评(4)
服务器硬件RAID性能横评(4)
2.2总线的性能指标
2.2总线的性能指标
116 0
2.2总线的性能指标
|
网络协议 测试技术 芯片
【硬件篇之功耗测试】
【硬件篇之功耗测试】
490 0
【硬件篇之功耗测试】
|
固态存储 内存技术
SSD主控与NAND闪存之多通道交互
目前主流的SSD会有4或者8个Channel,SSD主控有一个专门的模块管理不同Channel之间的读写操作。
|
固态存储 内存技术
SSD可靠性分析前传之NAND闪存可靠性概览
按照剧情发展的规律,在进入正片之前都会有前传来交代事件的背景,所以在介绍SSD可靠性之前,咱们也先来个前传哈。