RDMA

首页 标签 RDMA
# RDMA #
关注
454内容
阿里云2024 KCD雅加达之旅精彩回顾
2024年11月30日,KCD在印尼雅加达顺利举行。活动涵盖Kubernetes生态的主题演讲与实操,吸引众多开发者与技术达人参与。阿里云作为赞助商,与印尼科技生态链接,4位专家为350余名参会者带来了1场主论坛和3场分论坛的分享。
马斯克X AI鲶鱼效应 倒逼AI行业快速发展
全球数据中心面临放缓困境,AI大模型的迭代因高质量数据短缺和高昂的建设成本而受限。马斯克的xAI公司迅速建设超大规模数据中心,引发OpenAI等竞争对手的焦虑,新一轮数据中心竞赛即将展开。
|
2月前
|
GlusterFS支持哪些挂载选项?
【10月更文挑战第1天】GlusterFS支持哪些挂载选项?
|
2月前
|
TCP或RDMA
【10月更文挑战第1天】TCP或RDMA
|
2月前
|
阿里云服务器计算架构X86/ARM/GPU/FPGA/ASIC/裸金属/超级计算集群有啥区别?
阿里云服务器ECS提供了多种计算架构,包括X86、ARM、GPU/FPGA/ASIC、弹性裸金属服务器及超级计算集群。X86架构常见且通用,适合大多数应用场景;ARM架构具备低功耗优势,适用于长期运行环境;GPU/FPGA/ASIC则针对深度学习、科学计算、视频处理等高性能需求;弹性裸金属服务器与超级计算集群则分别提供物理机级别的性能和高速RDMA互联,满足高性能计算和大规模训练需求。
|
3月前
| |
驱动未来:面向大模型的智算网络
2024年云栖大会 | 云网络技术分论坛,浙江大学求是特聘教授,博士生导师,信息技术中心主任 陈文智教授带来《驱动未来:面向大模型的智算网络》主题分享,围绕“大模型智算网络”展开,讨论了大模型快速发展的背景下,数据中心和网络架构的演进需求。提出了高性能网络协议的设计方向,介绍了观止大模型,通过网络融合和异构算力并池,实现高效的计算资源分配,满足未来推理应用和领域大模型的需求。
操作系统中的进程间通信
本文将深入探讨现代操作系统中进程间通信(IPC)的机制与实现。我们将从基本原理开始,逐步解析管道、信号量、共享内存及消息队列等主要技术的原理和应用。通过实际案例,我们还将展示这些技术在真实系统中的应用效果和性能表现。
|
3月前
| |
来自: 弹性计算
阿里云服务器实例规格vCPU、内存、网络带宽、网络收发包PPS、连接数等性能指标详解
阿里云服务器ECS实例可以分为多种实例规格族。根据CPU、内存等配置,一种实例规格族又分为多种实例规格。而实例规格又包含vCPU、处理器、内存、vTPM、本地存储、网络带宽、网络收发包PPS、连接数、弹性网卡、云盘带宽、云盘IOPS等指标,本文为大家详细介绍实例规格的这些指标,以供大家了解和选择。
一文读懂RDMA: Remote Direct Memory Access(远程直接内存访问)
该文档详细介绍了RDMA(远程直接内存访问)技术的基本原理、主要特点及其编程接口。RDMA通过硬件直接在应用程序间搬移数据,绕过操作系统协议栈,显著提升网络通信效率,尤其适用于高性能计算和大数据处理等场景。文档还提供了RDMA编程接口的概述及示例代码,帮助开发者更好地理解和应用这一技术。
GPU通信互联技术:GPUDirect、NVLink与RDMA
在高性能计算和深度学习领域,GPU已成为关键工具。然而,随着模型复杂度和数据量的增加,单个GPU难以满足需求,多GPU甚至多服务器协同工作成为常态。本文探讨了三种主要的GPU通信互联技术:GPUDirect、NVLink和RDMA。GPUDirect通过绕过CPU实现GPU与设备直接通信;NVLink提供高速点对点连接和支持内存共享;RDMA则在网络层面实现直接内存访问,降低延迟。这些技术各有优势,适用于不同场景,为AI和高性能计算提供了强大支持。
免费试用