《高性能科学与工程计算》——第3章 数据访存优化3.1 平衡分析与lightspeed评估

本文涉及的产品
数据传输服务 DTS,数据迁移 small 3个月
推荐场景:
MySQL数据库上云
简介:

本节书摘来自华章计算机《高性能科学与工程计算》一书中的第3章,第3.1节,作者:(德)Georg Hager Gerhard Wellein 更多章节内容可以访问云栖社区“华章计算机”公众号查看。

第3章 数据访存优化

在高性能计算中,访存是最重要的性能限制因素。如前所述,微处理器的理论峰值性能和访存带宽存在固有的“不平衡性”。因为很多科学和工程应用程序由需要大量数据传输的基于循环的代码构成,所以相对较低的内存(甚至是硬盘)访存带宽,就会导致片上资源的低效利用和程序性能的降低。
图3-1综合显示了现代并行计算机系统的数据通路构成,以及在不同层次上的带宽和延迟范围。执行计算任务的功能部件位于该层次结构的顶部。在这些不同层次的数据通路中,访存带宽最大有3~4个数量级的差异,访存延迟最高也有8个数量级的差异。为了获得计算操作数,数据传输需要到达的数据通路层次越深,对性能的影响就越小。因此,任何优化首先要考虑减少在性能低的数据通路上的数据传输。当这不能实现时,至少要让数据传输尽可能高效。


<a href=https://yqfile.alicdn.com/7c3acad83f4db5d79185697cc026ba0ce315416e.png" >

3.1 平衡分析与lightspeed评估

3.1.1 基于带宽的性能建模
许多程序员都会竭尽全力提高程序性能。为了确定这些努力是否有效或者确定目标程序是否已经得到了充分优化,程序员会使用简单的经验法则来评估这些基于循环且带宽访存受限的代码的理论性能。这里引入一个核心概念:平衡(balance)。例如,一个处理器芯片的“机器平衡”Bm等于可能的访存带宽(GWord/s,千兆字/秒)与峰值性能(GFlop/s,千兆浮点运算次数/秒)的比值:


76a7a5b82a29a3a10dfee3cb6cf0a120eaff9b58

尽管“访存带宽”通常对真正访存受限的代码有用,但这个术语可被cache带宽或者网络带宽代替。假定访存延迟被预取和软件流水这类技术隐藏,例如,一个时钟频率为3.0 GHz的双核芯片,每核每个时钟周期最多可执行4个浮点数计算,访存带宽为10.6GB/s,则这个处理器的机器平衡值为0.055W/F。在本书进行写作的时候,Bm值一般位于0.03W/F(标准的基于cache的微处理器)~0.5W/F(高端行向量处理器)之间。由于不断增长的DRAM差距和不断增加的处理器核数,未来标准架构的机器平衡值可能会降低。表3-1显示了不同数据传输路径的平衡值。


<a href=https://yqfile.alicdn.com/684863d7b192a35a2f5cc0891e883005e5d47701.png" >

图3-2收集了1994~2010年间,英特尔处理器的峰值性能和访存带宽信息(选取每年时钟性能最高的桌面处理器作为代表)。尽管2005年之前峰值性能的增长速度要快于访存带宽,但第一款双核芯片(Pentium D)的推出才真正大幅增大了DRAM差距。虽然Core i7为访存带宽赢回了一些颜面,但长期的发展趋势显然不会受到这个例外的影响。


1cad0ec678cf95ac089482c39764fd9303972e2d

为了量化运行在具有特定平衡值机器上的代码需求,我们进一步定义了循环的代码平衡值:


8625ac24a02fea8fd3b8c180ec9066276653f892

“数据传输量”表示通过数据通路(性能限制因素)传输的所有数据量(单位为字),这个术语在一定程度上依赖于硬件(见3.3节实例)。代码平衡值的倒数称为计算密度(computational intensity)。现在我们可以计算出代码平衡值为Bc的代码在机器平衡值为Bm的设备上所能达到的峰值性能的最大期望:


9d15c97baa1ba652398dcc68d4f44b8853758b49

我们将这个小数称为循环的“lightspeed”。则所能达到的峰值性能(GFlop/s)为:

<a href=https://yqfile.alicdn.com/01d6d0088ce2365cb497fbf3d01acf35e8818a26.png" >

如果l ≈ 1,则代码性能的限制因素将在CPU或其他地方,访存带宽不再是代码性能的限制因素。值得注意的是这个简单的性能模型是基于以下几点重要假设:
  • 循环代码应以最佳方式使用所有的算术单元(乘法和加法)。如没有,则必须引入一个校正因子来反映有效峰值性能和绝对峰值性能的比值(例如,如果代码只使用了加法单元,则有效峰值性能为绝对峰值性能的一半)。当使用的内核数量少于芯片上的内核总数时,也要有类似的考虑。
  • 虽然循环代码基于双精度浮点数运算。然而我们可以非常容易地得到更加适合其他代码的相似术语(例如,32位字每整数算术运算指令)。
  • 数据传输和运算完美重叠。
  • 最慢的数据通路决定了循环代码的性能。所有更快的数据通路都被认为是无限快的。
  • 计算系统面向吞吐量,即忽略延迟对性能的影响。
  • 完全有可能实现对内存带宽的利用达到饱和,从而使机器平衡值的计算达到最大值。近年来的多核架构设计中如果只使用其中一部分核,则对内存接口的使用是低效的。这使得性能预测更加困难,因为这需要一个单独的“有效”机器平衡值,这个值不仅是简单地使用核数与总核数的比值。3.1.2节和习题3.1对这点会有更加详细的讨论。

虽然平衡模型经常很有用,足够评估循环代码的性能,并能对性能优化提供指导(特别是同可视化结合起来,比如roofline模型[M42])。我们必须强调的是确实存在更加先进的性能模型策略,参见文献[L76, M43, M41]。
我们以1.3节介绍的标准向量基准代码为例:


<a href=https://yqfile.alicdn.com/583f9a483dc8801fe68d218765db7037a7b1816d.png" >

该内核每个迭代循环执行两次浮点数运算、三次数据读取指令(读取数据B(i)、C(i)和D(i))和一次数据存储指令(存储A(i))。代码平衡值为Bc = (3+1)/2 = 2。如果该代码运行在机器平衡值Bm = 0.1的CPU上,那么我们可以预期lightspeed比为0.05,即峰值的5%。
基于cache的标准微处理器,其最外层cache通常会具有回写策略。如1.3节所述,如果延迟写或者行0未被使用时,当一次写操作未命中时,为保证cache –存储器的一致性,需要一次cache行的写分配。在这样的条件下,计算代码平衡值时,数组A的存储操作必须计算两次,这样我们计算出最终的lightspeed为lwa = 0.04。
3.1.2 STREAM 基准测试
McCalpin STREAM是用来评估处理器或者系统内存接口性能的基准测试,包含四个简单的合成内核循环代码。表3-2列出了它们的操作以及各自的代码平衡值。有效内存带宽(GB/s)通常作为其性能提供报告。注意不要将STREAM TRIAD内核与上一节讨论的三元组向量操作混淆,它包含一个额外的数据读取操作。


5e872bb6273dee8dc326778606fed057750b3a0b

STREAM基准测试存在串行和OpenMP并行两个版本(参见第6章)。这两个版本通常都运行在足够大的数据集上,以确保内核性能都是访存受限的。因此,内存带宽测试仅依赖于数据读取和存储操作的次数,COPY和SCALE(ADD和TRIAD同样适用)内核代码的性能结果往往类似。需要搞清楚的是,STREAM并不是仅通过表3-2列出的循环内核定义的,还包含Fortran源代码(也有可用的C语言版本)。这一点非常重要,因为经过优化的编译器会识别出STREAM源代码,从而使用手工优化的机器代码代替内核代码。因此,STREAM的性能结果可以真实地反映出硬件的实际性能。在STREAM网站上可以找到许多针对过去和现在的计算机系统的基准测试代码[W119]。
遗憾的是,STREAM同三元组向量代码一样,达不到平衡分析所预测的性能水平,特别是在商业(基于PC的)硬件上。其中的原因是多方面的,这里不进行详细讨论,主要原因如下:

  • 在读和写两个方向上往往不能同时达到峰值带宽。例如,存在这种情况,内存读和内存写的峰值带宽的比例为2 : 1,在这种情况下,写操作并不能充分利用内存带宽。
  • 协议开销(参见4.2.1节)、芯片缺陷、内存芯片的错误校正,以及高延迟(不能完全被预取隐藏)都会降低有效带宽。
  • 处理器芯片上的数据通路(如L1 cache和寄存器间的数据通路),可以是单向的。如果代码在读和写操作间没有取得很好的平衡,那么在一个方向上的内存带宽可能不会得到充分利用。这是在cache上进行平衡分析时应该考虑的内容。

然而,STREAM结果所标记的最大内存带宽依然是正确的。没有具有类似特征(读写操作的数量)的实际应用代码可以表现得更好。这样,在lightspeed计算中应该引用STREAM所测得的带宽bS,而不是硬件的理论值。式(3-4)可修正为:


e3dfc1abe1fd9292ccb1f9e1f9e1ab7f581a4210

如果一个实际应用程序能够达到基于STREAM预测带宽的较大比值(如80%),往往意味着该程序没有继续改进内存接口利用率的余地。当然,这并不意味着没有进一步优化的空间(如下面章节的讨论)。
我们选择一个使用英特尔Xeon 5160 处理器(参见图4-4)的系统作为测试平台。该处理器的每核理论内存带宽为bmax = 10.66 GB/s,峰值性能为Pmax = 12 GFlop/s(3.0GHz,每个时钟周期可执行4次浮点数运算),则单核机器平衡值为Bm = 0.111 W/F(如果两个核都运行访存受限代码,则该值需除以2。但是目前我们假定每个系统通路只运行一个线程)。
表3-3显示了STREAM在这个平台上,有无写分配的比较测试结果。由于基准测试代码并没有考虑这个细节,所以当存在写分配操作时,测试带宽和实际内存传输不同。如
表3-3所示,实测性能和理论峰值性能的差距非常明显,在这个平台上几乎不可能超过峰值带宽的40%。ADD与TRIAD(两次读取操作而不是一次)内核的效率特别低。如果这个结果被用来做循环代码的平衡分析,COPY和SCALE应该运行在加载/存储(写入)平衡的情况下。3.3节将会讨论一个具体实例。


bbb522684421e7510441fadcb77706ce0d2fd1e3
相关实践学习
RocketMQ一站式入门使用
从源码编译、部署broker、部署namesrv,使用java客户端首发消息等一站式入门RocketMQ。
Sqoop 企业级大数据迁移方案实战
Sqoop是一个用于在Hadoop和关系数据库服务器之间传输数据的工具。它用于从关系数据库(如MySQL,Oracle)导入数据到Hadoop HDFS,并从Hadoop文件系统导出到关系数据库。 本课程主要讲解了Sqoop的设计思想及原理、部署安装及配置、详细具体的使用方法技巧与实操案例、企业级任务管理等。结合日常工作实践,培养解决实际问题的能力。本课程由黑马程序员提供。
相关文章
|
25天前
|
存储 并行计算 算法
【深度挖掘Java性能调优】「底层技术原理体系」深入挖掘和分析如何提升服务的性能以及执行效率(性能三大定律)
【深度挖掘Java性能调优】「底层技术原理体系」深入挖掘和分析如何提升服务的性能以及执行效率(性能三大定律)
35 0
|
5天前
|
机器学习/深度学习 资源调度 调度
利用机器学习优化数据中心能效的策略研究
【4月更文挑战第18天】 在数据中心的运营成本中,能源消耗占据了显著比例。为了降低这一开销同时减少环境影响,本文提出一套基于机器学习技术的数据中心能效优化策略。通过分析数据中心的能耗模式和环境变量,构建了一个预测模型来动态调整资源分配,实现能源使用的最大效率。与传统方法相比,本研究提出的策略在保证服务质量的前提下,能有效降低能耗,并具备自我学习和适应的能力。
|
22天前
|
机器学习/深度学习 传感器 数据采集
利用机器学习优化数据中心冷却效率
在数据中心运营成本中,冷却系统占据显著比例。随着能源价格的攀升以及环保意识的增强,如何提高数据中心冷却效率成为了一个亟待解决的问题。本文将探讨一种基于机器学习的方法来优化数据中心的冷却管理策略,旨在降低能耗并提升系统的冷却性能。通过收集和分析环境参数、服务器负载以及冷却系统运行数据,我们构建了一个预测模型来动态调整冷却需求。初步实验表明,该方法能有效地减少不必要的冷却消耗,实现智能化和节能化的管理。
|
11月前
|
人工智能 搜索推荐 自动驾驶
使用 AI 工具是否会导致思考能力退化?如何应对?
文本探讨两个问题:使用 AI 工具是否会导致人类的思考能力退化?如何在使用AI工具的同时,保持甚至提高我们的思考能力?
287 0
使用 AI 工具是否会导致思考能力退化?如何应对?
|
12月前
|
数据可视化 算法 数据挖掘
网络结构数据分析:揭示复杂系统背后的规律
随着网络技术的不断发展,人们在互联网上留下了海量的数据,这些数据反映了人类社会、经济、生态等各个领域的复杂系统。而这些复杂系统背后的规律往往难以被直接观察到,需要借助网络结构数据分析的方法来揭示。本文将介绍网络结构数据分析的概念、方法和应用,以及未来发展方向
180 0
|
12月前
|
存储 数据采集 监控
【数据挖掘实战】——应用系统负载分析与容量预测(ARIMA模型)
项目地址:Datamining_project: 数据挖掘实战项目代码
494 0
|
编解码 弹性计算 搜索推荐
阿里云E-HPC+i4p大内存实例,加速寻因生物单细胞数据分析效率
将单细胞测序技术与IT基础设施结合在一起,实现1+1大于2的效果。
阿里云E-HPC+i4p大内存实例,加速寻因生物单细胞数据分析效率
|
机器学习/深度学习 传感器 算法
【数据分析】多重分形去趋势波动分析附matlab代码
【数据分析】多重分形去趋势波动分析附matlab代码
【数据分析】多重分形去趋势波动分析附matlab代码
|
机器学习/深度学习 存储 并行计算
【ASPLOS 2022】机器学习访存密集计算编译优化框架AStitch,大幅提升任务执行效率
近日,关于机器学习访存密集计算编译优化框架的论文《AStitch: Enabling A New Multi-Dimensional Optimization Space for Memory-Intensive ML Training and Inference on Modern SIMT Architectures》被系统领域顶会ASPLOS 2022接收。
【ASPLOS 2022】机器学习访存密集计算编译优化框架AStitch,大幅提升任务执行效率
|
机器学习/深度学习 算法 算法框架/工具
如何从系统层面优化深度学习计算?
在图像、语音识别、自然语言处理、强化学习等许多技术领域中,深度学习已经被证明是非常有效的,并且在某些问题上已经达到甚至超越了人类的水平。然而,深度学习对于计算能力有着很大的依赖,除了改变模型和算法,是否可以从系统的层面来优化深度学习计算,进而改善计算资源的使用效率?本文中,来自微软亚洲研究院异构计算组资深研究员伍鸣与大家分享他对深度学习计算优化的一些看法。
941 0

热门文章

最新文章