搭载 NVIDIA A10 GPU的阿里云gn7i服务器开启,AI性能提升2-3倍!

简介: 该实例采用最新的NVIDIA A10 GPU作为加速器,适用于人工智能推理、视频处理、3D可视化、云游戏和云桌面等场景。

云是获取AI算力最为便捷的方式,相较于自行购买服务器,用户可以按需要随时购买GPU实例资源,训练和推理任务结束时,自动释放或停止GPU实例资源,避免资源闲置。阿里云拥有亚洲最大的异构计算集群,加上秒级交付的弹性能力,为行业提供强大的AI算力。

近日,阿里云异构计算宣布gn7i云服务器开放邀测。gn7i系列实例是阿里云异构计算产品线最新一代通用型加速产品,该实例采用最新的NVIDIA A10 GPU作为加速器,适用于人工智能推理、视频处理、3D可视化、云游戏和云桌面等场景。

相比上一代基于NVIDIA T4 GPU的gn6i系列实例,gn7i的性价比全面提升,为企业线上业务降本增效。gn7i提供更多的CPU核心,更高主频;GPU计算性能也相应提高了一倍以上,可支持更丰富的GPU计算场景。

正式购买之前,推荐先领取代金券再购买(附代金券领取地址:阿里云官方云小站),可帮助我们进一步降低购买成本。

 

Gn7i实例的单精度浮点计算能力是T4实例的385%,支持混合精度,提供优秀的计算能力,可广泛应用于互联网、安防、工业等行业的AI图像识别、语音识别、语义识别、行为识别等场景;还集成优秀的图形渲染能力,适用于设计、制造、建造设计等行业,以及云游戏运营商等;整合硬件加速编解码器,适用于互联网和广电行业视频编解码处理。

基于阿里云自研的神龙架构,gn7i系列实例将支持虚拟机(gn7i)、裸金属(ebmgn7i)和vGPU(vgn7i)形态;最高支持64Gbps VPC网络,即将支持eRDMA网络。丰富的形态让企业可以根据自身业务属性,选择最契合自身的实例。

针对人工智能场景,阿里云异构计算还提供了软硬一体性能优化方案,自研的神龙AI加速引擎(AIACC)是业界首个支持Tensorflow、PyTorch、MXNet、Caffe等主流开源框架的深度学习加速引擎,它针对训练场景和推理场景,结合阿里云的网络和异构计算架构作了优化,云上训练有2-14倍的性能提升,推理场景下性能提升2-6倍。

正式购买之前,推荐先领取代金券再购买(附代金券领取地址:阿里云官方云小站),可帮助我们进一步降低购买成本。

?

阿里云GPU云服务器特惠
官方活动详情地址:点此进入阿里云GPU云服务器特惠3折起活动

 

除了gn7i实例,阿里云异构计算去年还推出了基于A100的gn7实例,面向人工智能训练场景和高性能计算。丰富的实例家族,加上阿里云异构计算独有的cGPU容器技术、弹性加速计算实例(EAIS)与神龙AI加速引擎(AIACC)三大特色优势,一同组成阿里云异构计算产品家族,为用户提供灵活高效、性能超群的异构计算基础设施。

正式购买之前,推荐先领取代金券再购买(附代金券领取地址:阿里云官方云小站),可帮助我们进一步降低购买成本。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
7天前
|
存储 Serverless 文件存储
AI 场景下,函数计算 GPU 实例模型存储最佳实践
当前,函数计算 FC 已被广泛应用在各种 AI 场景下,函数计算支持通过使用容器镜像部署 AI 推理应用,并且提供多种选项来访问训练好的模型。为了帮助开发者高效地在函数计算上部署 AI 推理应用,并快速解决不同场景下的模型存储选型问题,本文将对函数计算的 GPU 模型存储的优缺点及适用场景进行对比分析,以期为您的模型存储决策提供帮助。
|
30天前
|
人工智能 JSON Linux
利用阿里云GPU加速服务器实现pdf转换为markdown格式
随着AI模型的发展,GPU需求日益增长,尤其是个人学习和研究。直接购置硬件成本高且更新快,建议选择阿里云等提供的GPU加速型服务器。
利用阿里云GPU加速服务器实现pdf转换为markdown格式
|
2月前
|
机器学习/深度学习 弹性计算 人工智能
阿里云服务器架构有啥区别?X86计算、Arm、GPU异构、裸金属和高性能计算对比
阿里云ECS涵盖x86、ARM、GPU/FPGA/ASIC、弹性裸金属及高性能计算等多种架构。x86架构采用Intel/AMD处理器,适用于广泛企业级应用;ARM架构低功耗,适合容器与微服务;GPU/FPGA/ASIC专为AI、图形处理设计;弹性裸金属提供物理机性能;高性能计算则针对大规模并行计算优化。
114 7
|
2月前
|
人工智能 并行计算 流计算
【AI系统】GPU 架构与 CUDA 关系
本文介绍了英伟达GPU硬件基础概念,重点解析了A100 GPU架构中的GPC、TPC、SM等组件及其功能。接着深入讲解了CUDA并行计算平台和编程模型,特别是CUDA线程层次结构。最后,文章探讨了如何根据CUDA核心数量、核心频率等因素计算GPU的算力峰值,这对于评估大模型训练的算力需求至关重要。
90 2
|
2月前
|
机器学习/深度学习 存储 人工智能
【AI系统】为什么 GPU 适用于 AI
本文探讨了GPU在AI计算中的应用,从卷积计算的基本原理入手,解析了GPU线程分级与AI计算模式的关系,以及矩阵乘法如何通过GPU编程提升算力利用率。文章还介绍了计算强度的概念,分析了不同数据结构对计算强度的影响,以及GPU中Tensor Core的作用,强调了在不同存储位置下,找到计算强度与矩阵大小的最佳平衡点对AI计算系统优化的重要性。
118 2
|
2月前
|
机器学习/深度学习 人工智能 并行计算
【AI系统】GPU 架构回顾(从2010年-2017年)
自1999年英伟达发明GPU以来,其技术不断革新。本文概述了从2010年至2024年间,英伟达GPU的九代架构演变,包括费米、开普勒、麦克斯韦、帕斯卡、伏特、图灵、安培、赫柏和布莱克韦尔。这些架构不仅在游戏性能上取得显著提升,还在AI、HPC、自动驾驶等领域发挥了重要作用。CUDA平台的持续发展,以及Tensor Core、NVLink等技术的迭代,巩固了英伟达在计算领域的领导地位。
62 1
|
2月前
|
机器学习/深度学习 人工智能 缓存
【AI系统】GPU 架构回顾(从2018年-2024年)
2018年发布的Turing图灵架构,采用12nm工艺,包含18.6亿个晶体管,大幅提升了PC游戏、专业图形应用及深度学习推理的效率与性能。Turing引入了RT Core和Tensor Core,分别用于实时光线追踪和加速深度学习计算,支持GDDR6内存,显著提升了数据传输速率和效率。此外,Turing架构还支持NVLink 2.0,增强了多GPU协同工作的能力,适用于复杂的图形渲染和深度学习任务。
74 0
【AI系统】GPU 架构回顾(从2018年-2024年)
|
1月前
|
机器学习/深度学习 人工智能 编解码
阿里云GPU云服务器优惠收费标准,GPU服务器优缺点与适用场景详解
随着人工智能、大数据分析和高性能计算的发展,对计算资源的需求不断增加。GPU凭借强大的并行计算能力和高效的浮点运算性能,逐渐成为处理复杂计算任务的首选工具。阿里云提供了从入门级到旗舰级的多种GPU服务器,涵盖GN5、GN6、GN7、GN8和GN9系列,分别适用于图形渲染、视频编码、深度学习推理、训练和高性能计算等场景。本文详细介绍各系列的规格、价格和适用场景,帮助用户根据实际需求选择最合适的GPU实例。
|
13天前
|
弹性计算 数据挖掘 应用服务中间件
阿里云轻量应用服务器68元与云服务器99元和199元区别及选择参考
目前阿里云有三款特惠云服务器,第一款轻量云服务器2核2G68元一年,第二款经济型云服务器2核2G3M带宽99元1年,第三款通用算力型2核4G5M带宽199元一年。有的新手用户并不是很清楚他们之间的区别,因此不知道如何选择。本文来介绍一下它们之间的区别以及选择参考。
272 87
|
6天前
|
存储 弹性计算 应用服务中间件
阿里云轻量应用服务器出新品通用型实例了,全球26个地域可选
近日,阿里云再度发力,推出了首款全新升级的轻量应用服务器——通用型实例。这款服务器实例不仅标配了200Mbps峰值公网带宽,更在计算、存储、网络等基础资源上进行了全面优化,旨在为中小企业和开发者提供更加轻量、易用、普惠的云计算服务,满足其对于通用计算小算力的迫切需求。目前,这款新品已在全球26个地域正式上线,为全球用户提供了更加便捷、高效的上云选择。