GPU成为主流 NVIDIA GRID亮相Citrix Synergy 2017

简介:

在近日举行的Citrix Synergy 2017上,NVIDIA携GRID解决方案全新亮相。XenServer团队展示了业界首款支持GPU的XenMotion技术演示,以及Citrix Director与NVIDIA GRID GPU监控器的集成。

GPU成为主流 NVIDIA GRID亮相Citrix Synergy 2017

NVIDIA GRID是一个图形虚拟化平台,它推动NVIDIA GPU技术深入虚拟桌面和应用领域发挥效力,为设计师、移动业务专员、办公室工作者等一众人员带来身临其境的优异用户体验。

NVIDIA GRID技术能让IT接入到功能强大的图形加速云解决方案,通过提供更高安全性、工作效率和成本效益的虚拟工作空间,将应用程序和数据集中到一起。

NVIDIA GRID与虚拟化技术的融合

目前NVIDIA GRID与NVIDIA Tesla GPU日益被部署在主流虚拟应用程序,虚拟桌面和虚拟工作站中。越来越多的企业使用传统服务器、超融合设备或者公有云形式的GPU加速技术驱动Windows 10和现代应用程序。

Citrix宣布已经集成NVIDIA GRID,以提供业界首个且唯一融汇了GPU的洞察力和虚拟机器迁移能力、支持对GPU进行全面管理的应用程序。该产品为在数据中心和云端部署NVIDIA GRID加速虚拟应用程序、台式机和工作站的企业提供高级操作功能。 Citrix与NVIDIA在图形虚拟化方面有长期的合作伙伴关系,早在2013年,Citrix在XenServer引入了vGPU技术,首次为虚拟机带来了真正的硬件共享图形计算能力。

现在,Citrix与NVIDIA通力合作,使用XenServer和NVIDIA vGPU释放企业的XenDesktop图形工作负载,并进行虚拟机的XenMotion实时迁移。也就是企业可以将在运行中的启用vGPU的虚拟机实时迁移到另一台主机上面,而不影响用户使用体验,使企业能够更有效地管理主机。

另外,Citrix Director与NVIDIA GRID GPU监控器的集成能够更好地帮助企业监控和分析GPU使用情况,方便企业实现对虚拟化设备的管理。Citrix Director是一个监视控制台,能够提供有关应用程序和桌面的详细趋势和诊断信息。

在虚拟应用程序或虚拟桌面方面,NVIDIA GRID不光与Citrix展开了深入合作,还与VMware有着紧密的合作。

NVIDIA与VMware在图形虚拟化领域的不断深入合作,为用户提供最佳的虚拟化图形加速应用体验。

NVIDIA GRID技术搭配VMware Horizon和vSphere环境,可运行任何应用程序,带来极佳的用户体验。NVIDIA GRID技术可让企业IT部门高效分配图形资源,从而实现更好的可扩展性、可管理性和安全性。终端用户可以跨设备和地点获得所需的图形性能,从而提高生产力。

NVIDIA GRID云端拓展更多应用场景

除了Citrix和VMware,NVIDIA与AWS、微软Azure展开合作,在云端扩展NVIDIA GRID。

AWS通过其Amazon EC2云来提供NVIDIA GRID GPU实例,那些在云端运行图形密集型应用和游戏的用户因而能够获得GPU加速。

NVIDIA GRID GPU专为云计算而设计,使新一代GPU加速的SaaS应用成为了可能,这些应用包括虚拟工作站、加速的虚拟桌面以及游戏即服务。

而在微软Azure云平台上面,由NVIDIA GRID虚拟化平台和NVIDIA Tesla M60 GPU提供支持的Azure虚拟机实例,帮助Azure在云端实现了大规模GPU图形加速的虚拟化,以满足企业的需求。使用NVIDIA GRID,就能在Microsoft Azure中无缝地部署GPU加速的虚拟应用程序、台式机和工作站。

高端工作站用户可以直接在这些实例上运行NVIDIA Quadro GPU优化的应用程序,例如Siemens PLM套件。
此外,不需要Quadro优化应用程序的办公室工作人员和专业人员也可以享受到针对助力提高生产力的应用程序进行优化的高品质用户体验,例如 RDS、Citrix XenApp Essentials、VMware Horizon或Workspot等解决方案交付的虚拟应用程序或虚拟桌面。

写在最后

作为NVIDIA提供的基于GPU的云计算解决方案,围绕GRID,NVIDIA与合作伙伴一同,为企业提供更丰富、便捷和多样化的虚拟化图形体验和服务。



原文发布时间为:2017年6月19日

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
机器学习/深度学习 虚拟化 数据中心
NVIDIA T4和A10:不同应用场景下的GPU加速器选择
在数据中心和云计算领域,GPU加速器扮演着至关重要的角色。NVIDIA T4和A10是两款适用于不同应用场景的GPU加速器。本文将比较它们的性能和适用场景,帮助读者更好地选择适合自己需求的GPU实例。
6350 0
|
4月前
|
Kubernetes 调度 异构计算
一文搞懂 GPU 共享方案: NVIDIA Time Slicing
本文主要分享 GPU 共享方案,包括如何安装、配置以及使用,最后通过分析源码了 TImeSlicing 的具体实现。通过配置 TImeSlicing 可以实现 Pod 共享一块物理 GPU,以提升资源利用率。
162 11
|
6月前
|
并行计算 PyTorch 算法框架/工具
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
本文探讨了如何通过技术手段混合使用AMD与NVIDIA GPU集群以支持PyTorch分布式训练。面对CUDA与ROCm框架互操作性不足的问题,文章提出利用UCC和UCX等统一通信框架实现高效数据传输,并在异构Kubernetes集群中部署任务。通过解决轻度与强度异构环境下的挑战,如计算能力不平衡、内存容量差异及通信性能优化,文章展示了如何无需重构代码即可充分利用异构硬件资源。尽管存在RDMA验证不足、通信性能次优等局限性,但该方案为最大化GPU资源利用率、降低供应商锁定提供了可行路径。源代码已公开,供读者参考实践。
433 3
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
|
机器学习/深度学习 人工智能 弹性计算
阿里云GPU服务器全解析_GPU服务器租用费用_NVIDIA A10、V100、T4、P4、P100 GPU卡
阿里云GPU云服务器提供NVIDIA A10、V100、T4、P4、P100等多种GPU卡,结合高性能CPU,单实例计算性能高达5PFLOPS。支持2400万PPS及160Gbps内网带宽。实例规格多样,如A10卡GN7i(3213.99元/月)、V100-16G卡GN6v(3830.00元/月)等。适用于深度学习、科学计算、图形处理等场景。GPU软件如AIACC-Training、AIACC-Inference助力性能优化。购买方式灵活,客户案例包括深势科技、流利说、小牛翻译。
2436 0
|
XML 机器学习/深度学习 监控
性能监控之Telegraf+InfluxDB+Grafana NVIDIA GPU实时监控
【6月更文挑战12天】性能监控之Telegraf+InfluxDB+Grafana NVIDIA GPU实时监控
455 0
|
弹性计算 并行计算 UED
GPU实例使用--自动安装NVIDIA GPU驱动和CUDA组件
GPU 云服务器正常工作需提前安装正确的基础设施软件,对于搭载了 NVIDIA 系列 GPU卡的实例而言,如果把 NVIDIA GPU 用作通用计算,则需安装 NVIDIA GPU 驱动、 CUDA、cuDNN等软件。
102248 3
|
弹性计算 并行计算 UED
带你读《弹性计算技术指导及场景应用》——4. 自动安装NVIDIA GPU驱动和CUDA组件
带你读《弹性计算技术指导及场景应用》——4. 自动安装NVIDIA GPU驱动和CUDA组件
275 0
|
弹性计算 虚拟化 异构计算
阿里云GPU服务器NVIDIA A100 GPU卡租用价格表
阿里云GPU服务器NVIDIA A100 GPU卡租用价格表,阿里云GPU服务器租用价格表包括包年包月价格、一个小时收费以及学生GPU服务器租用费用,阿里云GPU计算卡包括NVIDIA V100计算卡、T4计算卡、A10计算卡和A100计算卡,GPU云服务器gn6i可享受3折优惠,阿里云百科分享阿里云GPU服务器租用价格表、GPU一个小时多少钱以及学生GPU服务器收费价格表
12611 0
阿里云GPU服务器NVIDIA A100 GPU卡租用价格表
|
机器学习/深度学习 监控 异构计算
如何监控NVIDIA GPU 的运行状态和使用情况
如果这个值很低,则意味着您的 GPU 并没有全速的工作,可能是受到 CPU或者IO 操作的瓶颈,如果你使用的按小时付费的云服务器,那么就是在浪费时间和金钱!
1564 0
如何监控NVIDIA GPU 的运行状态和使用情况
|
编解码 并行计算 计算机视觉
ffmpeg硬件编解码Nvidia GPU
ffmpeg硬件编解码Nvidia GPU
926 0