开源工具GPU Sharing:支持Kubernetes集群细粒度
问题背景
全球主要的容器集群服务厂商的Kubernetes服务都提供了Nvidia GPU容器调度能力,但是通常都是将一个GPU卡分配给一个容器。这可以实现比较好的隔离性,确保使用GPU的应用不会被其他应用影响;对于深度学习模型训练的场景非常适合,但是如果对于模型开发和模型预测的场景就会比较浪费。
阿里云智能技术战略架构师陈绪:透视2019云计算酣战
精彩观点:通过开放API管理混合云会更受大客户欢迎,客户倾向于用云存储灾备技术保障数据可靠性,Kubernetes和Kata Containers会成为业界主流,中国出现第一家真正全面云化的大型公司,云端GPU计算在业务中应用的广度和深度将成为未来十年衡量企业竞争力的新标尺等。
100TB级, 日增量1TB(100亿), OLTP OLAP混合场景数据库设计方向
标签
PostgreSQL , LLVM , JIT , 并行 , 列存储 , GPU
背景
总量100TB,日增量1TB左右。这样的体量应该可以覆盖目前绝大多数企业的数据库体量。
提到100TB级别,OLTP和OLAP的混合场景,大家可能会想到Oracle的一体机extradata,没错Oracle在这方面做得确实是非常棒的,但是价格也是很漂亮的。
CUDNN学习笔记(1)
cuDNN概述NVIDIA cuDNN是一个GPU加速深层神经网络原语库。它提供了在DNN应用程序中频繁出现的例程的高度优化的实现:
卷积前馈和反馈,
pooling前馈和反馈
softmax前馈和反馈
神经元前馈和反馈:
整流线性(ReLU)-sigmoid
双曲线正切(TANH)
张量转换函数
LRN,LCN和批量归一化前进和后退
cuDNN的卷积程序旨在提高性能,以最快的GEMM(矩阵乘法)为基础实现此类例程,同时使用更少的内存。
阿里云郑晓:浅谈GPU虚拟化技术(第三章)
本系列文章推送门:
阿里云郑晓:浅谈GPU虚拟化技术(第一章) GPU虚拟化发展史 阿里云郑晓:浅谈GPU虚拟化技术(第二章)GPU虚拟化方案之——GPU直通模式
今天一个小伙伴@我说:“你浅谈一下,没点技术背景的,估计都看不懂…”,醍醐灌顶啊,面向公众的文章不是学术论文,应以普及基本概念为主。