异构计算

首页 标签 异构计算
# 异构计算 #
关注
19970内容
浅析GPU通信技术(下)-GPUDirect RDMA
目录 浅析GPU通信技术(上)-GPUDirect P2P 浅析GPU通信技术(中)-NVLink 浅析GPU通信技术(下)-GPUDirect RDMA 1. 背景         前两篇文章我们介绍的GPUDirect P2P和NVLink技术可以大大提升GPU服务器单机的GPU通信性...
浅析GPU通信技术(上)-GPUDirect P2P
1. 背景 GPU在高性能计算和深度学习加速中扮演着非常重要的角色, GPU的强大的并行计算能力,大大提升了运算性能。随着运算数据量的不断攀升,GPU间需要大量的交换数据,GPU通信性能成为了非常重要的指标。
通过阿里云容器服务深度学习解决方案上手Caffe+多GPU训练
阿里云容器服务提供的深度学习解决方案内置了对Tensorflow, Keras, MXnet框架的环境,并支持基于它们的深度学习模型开发、模型训练和模型预测。同时,对于模型训练和预测,用户还可以通过指定自定义容器镜像的方式,使用其他深度学习框架。
云上深度学习实践(一)-GPU云服务器TensorFlow单机多卡训练性能实践
本文将介绍TensorFlow在阿里云GPU云服务器上的单机性能表现,并对单机多卡的性能调优给出了一些建议。
Ubuntu18.04LTS下cuda10.0+cudnn7.5+TensorFlow1.13环境搭建
目录 前言 开发环境一览 显卡驱动安装 下载驱动 禁用nouveau 安装驱动 安装CUDA10.0 第一个CUDA程序 安装cudnn7.5 安装TensorFlow1.13 最后 前言 之前写过cuda环境的搭建文章, 这次干脆补全整个深度学习环境的搭建.
Apache Spark 3.0 将内置支持 GPU 调度
如今大数据和机器学习已经有了很大的结合,在机器学习里面,因为计算迭代的时间可能会很长,开发人员一般会选择使用 GPU、FPGA 或 TPU 来加速计算。在 Apache Hadoop 3.1 版本里面已经开始内置原生支持 GPU 和 FPGA 了。
【合集】规模化落地云原生,阿里云亮相 KubeCon China(内含 KubeCon PPT )
相关文章一览 沉淀九年,一文看清阿里云原生大事件什么是 KubeCon? CNCF(Cloud Native Computing Foundation),即云原生计算基金会。CNCF 于 2015 年 7 月成立,隶属于Linux 基金会,旨在联合合作伙伴和开源社区推动云原生技术发展,如 Kubernetes、容器及微服务等。
人工智能PK金牌速记员之实战录
引言 在2016年3月23日阿里云年会上,2000余名同学们见证了一场人机大战的好戏--阿里云iDST团队的实时语音识别系统在现场演讲分享环节实时挑战世界速记比赛亚军, 马总御用金牌速录师姜毅先生。这位神一般的速录师, 拥有超人的短时记忆功能, 超级的打字速度和惊人的正确率.要PK这样的对
浅析GPU通信技术(中)-NVLink
1.  背景 上一篇文章《浅析GPU通信技术(上)-GPUDirect P2P》中我们提到通过GPUDirect P2P技术可以大大提升GPU服务器单机的GPU通信性能,但是受限于PCI Expresss总线协议以及拓扑结构的一些限制,无法做到更高的带宽,为了解决这个问题,NVIDIA提出了NVLink总线协议。
免费试用