浅析GPU通信技术(下)-GPUDirect RDMA
              目录
浅析GPU通信技术(上)-GPUDirect P2P
浅析GPU通信技术(中)-NVLink
浅析GPU通信技术(下)-GPUDirect RDMA
1. 背景
        前两篇文章我们介绍的GPUDirect P2P和NVLink技术可以大大提升GPU服务器单机的GPU通信性...
              
             
            
              
              浅析GPU通信技术(上)-GPUDirect P2P
              1. 背景
GPU在高性能计算和深度学习加速中扮演着非常重要的角色, GPU的强大的并行计算能力,大大提升了运算性能。随着运算数据量的不断攀升,GPU间需要大量的交换数据,GPU通信性能成为了非常重要的指标。
              
             
            
              
              浅析GPU通信技术(中)-NVLink
              1.  背景
上一篇文章《浅析GPU通信技术(上)-GPUDirect P2P》中我们提到通过GPUDirect P2P技术可以大大提升GPU服务器单机的GPU通信性能,但是受限于PCI Expresss总线协议以及拓扑结构的一些限制,无法做到更高的带宽,为了解决这个问题,NVIDIA提出了NVLink总线协议。
              
             
            
            
            
              
              弹性计算峰会及神龙云服务器深度解析回顾
              神龙云服务器,结合虚拟机弹性和体验+物理机的性能和特性,张献涛认为:“神龙云服务器既不是虚拟机也不是物理机,而是一个新物种。阿里云将继续大力投入神龙计划的研发工作,持续扩充产品形态,充分利用技术革新的红利,全面助力产业敏捷高效,为客户创造新价值。”
              
             
            
              
              阿里巴巴论文入选全球顶级学术会议SIGCOMM,国内唯一
              近日在ACM SIGCOMM 2019上,阿里云两篇论文被主会收录,阿里巴巴作为唯一中国公司作现场报告。核心研究成果将用于新一代高速云网络,同时实现高速云网络的极致性能和超高稳定性。实践成熟有望替代TCP和RDMA协议的拥塞控制算法,在云数据中心大规模应用。
              
             
            
              
              在Kubernetes上使用RDMA
              ### RDMA
RDMA(全称RemoteDirect Memory Access) 它为了解决网络传输中服务器端数据处理的延迟而产生。
它的原理是将待传输的数据从一台计算机的内存,直接传输到另一台计算机的内存,整个传输过程无需操作系统和协议栈的介入。