新的内存技术提升了带宽和容量

简介:

DDR4内存在2014年推出时,其性能是DDR3内存的1.5倍,而内存接口的功耗却令人印象深刻,与DDR3内存相比,降低了25%的功耗。此外,DDR4支持每个模块的最大容量为512 GB,并且具有比其DDR3内存更多的存储空间,以及更快的循环和增加的引脚数(284),以支持更高的寻址能力。

根据IC Insights的说法,DDR4内存标准包括一些功能,可以加快内存操作,并增加服务器,笔记本和台式机,平板电脑以及各种消费电子产品的SDRAM存储。更具体地说,DDR4支持多达8个器件的堆叠存储器芯片,向存储器控制器提供单个信号负载。事实上,与DDR3内存相比,DDR4内存提供了双模块密度和双倍速度的潜力,同时降低了功耗,并延长了未来64位平板电脑和智能手机的电池寿命。 DDR4内存预计今年将成为DRAM的主导产品,其市场份额将达到58%,而DDR3内存的市场份额为39%。

新的内存技术提升了带宽和容量

变得更好

虽然DDR4的时钟频率为1.6Gbps至3.2Gbps,但标准化机构固态技术协会(JEDEC)最近公布的下一代DRAM-DDR5内存将实现双倍的带宽,从而实现3.2Gbps至6.4Gbps的时钟频率,以满足数据中心在物联网的时代(IoT)不断增长的带宽需求。事实上,普遍连接的新时代已经产生了数字海啸般的数据,这正在推动DDR4内存突破容量和内存带宽的限制。

虽然DDR5标准制定的工作仍在进行中,但早期公开发布的信息显示出了许多进化的改进。这些包括更高的密度,新的命令结构和新的省电功能。 DDR5内存还可能引入信号均衡和纠错功能。

引入高带宽内存(HBM)是提高服务器内存性能的另一种方法。本质上,高带宽内存(HBM)通过将低延迟DRAM内存放置在更加靠近CPU的位置来支持本地可用内存。

此外,高带宽内存(HBM)通过为1024位的SoC提供非常宽的接口来增加存储器带宽。这意味着HBM2的最大速度为2Gbps,总带宽为256GB / s。虽然其比特率与2.1Gbps的DDR3内存类似,但8位128位通道为HBM提供了大约15倍的带宽。此外,与现有架构相比,四个HBM存储器堆栈邻近CPU,每个具有256GB /s(例如)的存储速率,显著地提高了存储器密度和带宽。

除了DDR5内存和高带宽内存(HBM)之外,正在部署混合DIMM技术,如NVDIMM(非易失性DIMM),以满足不断增长的内存容量和带宽需求。据JEDEC称,NVDIMM-P将为计算机系统的新型高容量持久存储器模块提供针对成本,功耗和性能优化的新内存解决方案。事实上,DIMM的持久内存使用支持超大规模,高性能和高容量数据中心的多种用例。这些应用包括减少延迟,降低功耗,元数据存储,内存数据库,软件定义的服务器RAID以及意外故障期间的处理负载减少。

应该注意的是,NVDIMM-P可以在DIMM上实现完全可访问的闪存,从而允许系统利用非易失性存储器作为附加的高速存储器。同时,NVDIMM-N旨在使闪存作为DRAM的持久存储器备份。实际上,这意味着DRAM数据本地存储在闪存上,从而在减少CPU负载的同时,并产生持久性(在停电的情况下)。

总而言之,日益相连的世界激励了行业巨头在数据中心实施和创新新架构,以消除各种瓶颈。这其中包括DDR4内存和DDR5缓冲芯片,第二代高带宽内存(HBM2)和混合DIMM技术,如NVDIMM-P和NVDIMM-N。相信存储行业厂商需要共同开发下一代存储解决方案,同时坚持以最小的变化加快当前研发速度。

作者:HERO译

来源:51CTO

目录
相关文章
|
1月前
|
存储 机器学习/深度学习 PyTorch
119_LLM训练的高效内存管理与优化技术:从ZeRO到Flash Attention
大型语言模型(LLM)的训练面临着前所未有的计算和内存挑战。随着模型规模达到数百亿甚至数千亿参数,高效的内存管理成为训练成功的关键因素之一。2025年,LLM训练的内存优化技术已经取得了显著进展,从ZeRO优化器到Flash Attention等创新技术,为训练超大规模模型提供了可能。
|
2月前
|
缓存 人工智能 算法
不同业务怎么选服务器?CPU / 内存 / 带宽配置表
本文详解了服务器三大核心配置——CPU、内存、带宽,帮助读者快速理解服务器性能原理。结合不同业务场景,如个人博客、电商、数据库、直播等,提供配置选择建议,并强调合理搭配的重要性,避免资源浪费或瓶颈限制。内容实用,适合初学者和业务选型参考。
545 0
|
3月前
|
缓存 监控 Linux
CentOS系统如何查看当前内存容量。
以上方法都不需要特殊软件或者复杂配置即可执行,在CentOS或其他Linux发行版中都适合运行,并且它们各自透露出不同角度对待问题解答方式:从简单快速到深入详尽;从用户态到核心态;从操作层数到硬件层数;满足不同用户需求与偏好。
341 8
|
3月前
|
弹性计算 前端开发 NoSQL
2025最新阿里云服务器配置选择攻略:CPU、内存、带宽与系统盘全解析
本文详解2025年阿里云服务器ECS配置选择策略,涵盖CPU、内存、带宽与系统盘推荐,助你根据业务需求精准选型,提升性能与性价比。
|
3月前
|
机器学习/深度学习 监控 安全
解密虚拟化弹性内存:五大核心技术与实施策略
本文深入解析虚拟化环境中实现内存弹性管理的五大核心技术与实施策略。内容涵盖内存架构演进、关键技术原理、性能优化方法及典型问题解决方案,助力提升虚拟机密度与资源利用率。
199 0
|
4月前
|
存储 弹性计算 固态存储
阿里云服务器配置费用整理,支持一万人CPU内存、公网带宽和存储IO性能全解析
要支撑1万人在线流量,需选择阿里云企业级ECS服务器,如通用型g系列、高主频型hf系列或通用算力型u1实例,配置如16核64G及以上,搭配高带宽与SSD/ESSD云盘,费用约数千元每月。
441 0
|
KVM 虚拟化
KVM的热添加技术之内存
文章介绍了KVM虚拟化技术中如何通过命令行调整虚拟机内存配置,包括调小和调大内存的步骤,以及一些相关的注意事项。
324 4
KVM的热添加技术之内存
|
9月前
|
人工智能 运维 监控
2025年阿里云服务器配置选择全攻略:CPU、内存、带宽与系统盘详解
在2025年,阿里云服务器以高性能、灵活扩展和稳定服务助力数字化转型,提供轻量应用服务器、通用型g8i实例等多样化配置,满足个人博客至企业级业务需求。针对不同场景(如计算密集型、内存密集型),推荐相应实例类型与带宽规划,强调成本优化策略,包括包年包月节省成本、ESSD云盘选择及地域部署建议。文中还提及安全设置、监控备份的重要性,并指出未来可关注第九代实例g9i支持的新技术。整体而言,阿里云致力于帮助用户实现性能与成本的最优平衡。 以上简介共计238个字符。
|
11月前
|
人工智能 物联网 C语言
SVDQuant:MIT 推出的扩散模型后训练的量化技术,能够将模型的权重和激活值量化至4位,减少内存占用并加速推理过程
SVDQuant是由MIT研究团队推出的扩散模型后训练量化技术,通过将模型的权重和激活值量化至4位,显著减少了内存占用并加速了推理过程。该技术引入了高精度的低秩分支来吸收量化过程中的异常值,支持多种架构,并能无缝集成低秩适配器(LoRAs),为资源受限设备上的大型扩散模型部署提供了有效的解决方案。
700 5
SVDQuant:MIT 推出的扩散模型后训练的量化技术,能够将模型的权重和激活值量化至4位,减少内存占用并加速推理过程

热门文章

最新文章