大规模存储基础设施对人工智能的要求

简介: 存储基础设施采用人工智能技术提高了容量和性能方面的要求。对于采用人工智能或机器学习的存储环境来说,存储容量增长到几十TB甚至数百TB的情况并不少见。

云栖号资讯:【点击查看更多行业资讯
在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来!

存储基础设施采用人工智能技术提高了容量和性能方面的要求。对于采用人工智能或机器学习的存储环境来说,存储容量增长到几十TB甚至数百TB的情况并不少见。尽管提供全闪存阵列产品的供应商声称,这么庞大的数据无法全部存储在全闪存阵列上,但由于它们具有的并行性质,大多数存储环境从硬盘获得的服务几乎与从闪存获得的服务一样好。

要求1–高性能网络

对于人工智能/机器学习环境来说,创建使用内部部署或直接连接存储(DAS)的计算服务器集群的情况并不少见。即使共享存储在使用容量和将工作负载更均匀地分配给计算节点方面效率更高,很多组织仍然愿意牺牲这些效率来消除计算节点与共享存储之间创建的网络延迟。

NVMe光纤网络(NVMe-oF)是专门为基于内存的存储设备(如闪存和非易失性内存)设计的下一代网络。它提供的延迟几乎与DAS NVMe相同。NVMe的深度命令和队列深度使其也非常适合高度并行化的工作负载,并且人工智能/机器学习可能是所有工作负载中最为并行的技术。NVMe-oF是专门为内存存储而设计的,但它也是为人工智能/机器学习量身定制的。

要求2–共享存储

如果NVMe-oF可以解决计算与存储之间的延迟问题,那么它将启用第二个要求,即共享存储。通过NVMe-oF连接的共享存储解决方案,工作负载可以受益于共享存储的所有自然属性。首先,所有节点都可以访问所有数据,这意味着工作负载可以更均匀地分配其计算负载,这也意味着具有图形处理单元(GPU)的节点可以访问所有数据。由于GPU的价格比CPU贵得多,因此让GPU处理更多的负载是当务之急,而共享存储则使这一工作变得更加容易。

在衡量数十个甚至几百PB的工作负载容量需求时,存储效率的提高都可以节省大量成本。在具有用于每个计算节点的专用硬盘的集群中,IT团队无法轻松地将可用存储容量重新分配给集群中的其他节点。直接连接存储(DAS)模型中缺乏资源池,这也意味着组织无法有效使用制造商推向市场的大容量硬盘。现在,具有双重用途的节点(计算和存储)可能会安装12个或更多的16TB的闪存或18TB的硬盘,而单个节点可能无法有效使用。如果人工智能/机器学习存储体系结构从专用服务器中集中使用这些硬盘,则可以对其进行更精细的分配。人工智能/机器学习工作负载不仅需要扩展以满足容量需求,而且还必须可以直接访问存储节点以满足性能需求。

要求#3–分层存储

鉴于人工智能/机器学习数据集的规模,分层存储几乎是必须的措施,因为配置数十PB的闪存设备太昂贵了。事实上,某些人工智能工作负载并不遵循80/20规则,在任何给定时间,80%的数据都是不活跃的。这些工作负载可以从100%休眠状态变为100%活跃状态。尽管如此,它们还是高度并行的,并且数百个性能较低的机械硬盘都可以同时满足工作负载的需求,因此应该可以提供这些工作负载所需的性能。如果没有,他们可以在当前网络技术允许的范围内尽快传送数据。

要求#4–并行访问

并行访问意味着存储基础设施中的每个节点为人工智能/机器学习集群中的每个计算节点提供对其所需数据的直接访问。单个控制节点不会成为瓶颈。高级别的并行性对于人工智能/机器学习至关重要,因为可能需要同时访问存储池的计算节点数量众多。正是这种并行性使吞吐量能够使硬盘在人工智能/机器学习存储基础设施中成为一个组件。并行文件系统几乎总是需要客户端或代理,但是该代理除了提供并行访问之外,还经常需要比典型NFS协议更少的开销。

要求#5 –多种协议

尽管需要并行访问进行处理,但另一个要求是多协议访问,这对于将数据提取到存储基础设施中特别有帮助。许多人工智能和机器学习项目都从物联网(IoT)设备接收数据,这些设备通常需要与其附带的协议进行通信。许多设备通过服务器消息块(SMB)或网络文件系统(NFS)进行通信,少数设备使用S3存储桶。更重要的是,几乎没有人使用原生并行文件系统客户端。

要求#6 –高级元数据处理

人工智能/机器学习的工作负载是元数据繁重的负载,尽管通常不是因为它们像媒体和娱乐的工作负载那样使用丰富的元数据。元数据在人工智能/机器学习工作负载中的重要性来自其通用文件的数量。在大多数情况下,数十亿至数百PB的人工智能工作负载由数十亿个文件组成。这些文件中的每个文件都有元数据,就像其他工作负载一样,大部分IO事务都来自元数据。人工智能/机器学习存储基础设施必须管理元数据,以便即使文件数量增加,它也可以维持系统的性能。元数据需要在整个存储集群中进行分配,以便所有节点都可以参与其管理。供应商可能还会查看每个存储节点中闪存上的存储元数据,以确保系统始终能够响应。

结论

人工智能/机器学习工作负载与组织过去可能运行的其他工作负载有着根本的不同。早期的人工智能/机器学习项目已经依靠直接连接存储(DAS)进行数据存储。问题在于直接连接存储(DAS)无法平均分配负载,这对于每个人工智能工作负载的GPU数量增加至关重要。而且,直接连接存储(DAS)效率很低,复制和移动数据所花费的容量和时间上的浪费将会消除机械硬盘的价格优势。

【云栖号在线课堂】每天都有产品技术专家分享!
课程地址:https://yqh.aliyun.com/live

立即加入社群,与专家面对面,及时了解课程最新动态!
【云栖号在线课堂 社群】https://c.tb.cn/F3.Z8gvnK

原文发布时间:2020-04-20
本文作者:George Crump
本文来自:“企业网D1net”,了解相关信息可以关注“企业网D1net

相关实践学习
基于阿里云DeepGPU实例,用AI画唯美国风少女
本实验基于阿里云DeepGPU实例,使用aiacctorch加速stable-diffusion-webui,用AI画唯美国风少女,可提升性能至高至原性能的2.6倍。
相关文章
|
10天前
|
人工智能 弹性计算 算法
一文解读:阿里云AI基础设施的演进与挑战
对于如何更好地释放云上性能助力AIGC应用创新?“阿里云弹性计算为云上客户提供了ECS GPU DeepGPU增强工具包,帮助用户在云上高效地构建AI训练和AI推理基础设施,从而提高算力利用效率。”李鹏介绍到。目前,阿里云ECS DeepGPU已经帮助众多客户实现性能的大幅提升。其中,LLM微调训练场景下性能最高可提升80%,Stable Difussion推理场景下性能最高可提升60%。
|
8月前
|
人工智能 运维 监控
AI时代云基础设施的技术创新与展望丨ODCC2023
AI时代云基础设施的技术创新与展望丨ODCC2023
|
9天前
|
人工智能 弹性计算 算法
一文解读:阿里云AI基础设施的演进与挑战
一文解读:阿里云AI基础设施的演进与挑战
|
25天前
|
人工智能 安全 数据挖掘
阿里云高级技术专家李鹏:AI基础设施的演进与挑战 | GenAICon 2024
阿里云高级技术专家、阿里云异构计算AI推理团队负责人李鹏将在主会场第二日上午的AI Infra专场带来演讲,主题为《AI基础设施的演进与挑战》。
|
4月前
|
数据采集 存储 人工智能
商汤联合发布《新一代人工智能基础设施白皮书》,解读AI 2.0时代“新基建”
近日,商汤科技智能产业研究院与中国信息通信研究院云计算与大数据研究所,中国智能算力产业联盟,人工智能算力产业生态联盟,联合发布《新一代人工智能基础设施白皮书》(以下简称《白皮书》)。《白皮书》不仅明确了“新一代AI基础设施”的定义、特点和价值,还首次提出“新一代AI基础设施评估体系”,为AI 2.0时代智算产业发展提供重要参考。
|
7月前
|
人工智能 供应链 Kubernetes
|
7月前
|
人工智能 供应链 Kubernetes
KCD 2023 杭州站报名通道开启!聚焦云原生供应链、AI 基础设施
活动报名开始啦!本次是 Kubernetes Community Days 首次来到杭州,由 CNCF、蚂蚁开源、龙蜥社区、Dragonfly 社区、Harbor 社区联合发起。希望能够在这座充满活力的城市进一步推广云原生相关技术。
KCD 2023 杭州站报名通道开启!聚焦云原生供应链、AI 基础设施
|
12月前
|
机器学习/深度学习 人工智能 自动驾驶
上海人工智能实验室自动驾驶团队原作解读OpenLane:大规模真实场景3D车道线数据集
上海人工智能实验室自动驾驶团队原作解读OpenLane:大规模真实场景3D车道线数据集
183 0
|
人工智能 算法 芯片
限制人工智能潜力的主要基础设施挑战
每个行业的企业都在探索如何利用人工智能加速创新,并提供强大的竞争优势。然而,设计人工智能基础设施是复杂且难以承受的。
84 0
限制人工智能潜力的主要基础设施挑战

热门文章

最新文章