搭载 NVIDIA A10 GPU的阿里云gn7i服务器开启,AI性能提升2-3倍!

简介: 该实例采用最新的NVIDIA A10 GPU作为加速器,适用于人工智能推理、视频处理、3D可视化、云游戏和云桌面等场景。

云是获取AI算力最为便捷的方式,相较于自行购买服务器,用户可以按需要随时购买GPU实例资源,训练和推理任务结束时,自动释放或停止GPU实例资源,避免资源闲置。阿里云拥有亚洲最大的异构计算集群,加上秒级交付的弹性能力,为行业提供强大的AI算力。

近日,阿里云异构计算宣布gn7i云服务器开放邀测。gn7i系列实例是阿里云异构计算产品线最新一代通用型加速产品,该实例采用最新的NVIDIA A10 GPU作为加速器,适用于人工智能推理、视频处理、3D可视化、云游戏和云桌面等场景。

相比上一代基于NVIDIA T4 GPU的gn6i系列实例,gn7i的性价比全面提升,为企业线上业务降本增效。gn7i提供更多的CPU核心,更高主频;GPU计算性能也相应提高了一倍以上,可支持更丰富的GPU计算场景。

Gn7i实例的单精度浮点计算能力是T4实例的385%,支持混合精度,提供优秀的计算能力,可广泛应用于互联网、安防、工业等行业的AI图像识别、语音识别、语义识别、行为识别等场景;还集成优秀的图形渲染能力,适用于设计、制造、建造设计等行业,以及云游戏运营商等;整合硬件加速编解码器,适用于互联网和广电行业视频编解码处理。

基于阿里云自研的神龙架构,gn7i系列实例将支持虚拟机(gn7i)、裸金属(ebmgn7i)和vGPU(vgn7i)形态;最高支持64Gbps VPC网络,即将支持eRDMA网络。丰富的形态让企业可以根据自身业务属性,选择最契合自身的实例。

针对人工智能场景,阿里云异构计算还提供了软硬一体性能优化方案,自研的神龙AI加速引擎(AIACC)是业界首个支持Tensorflow、PyTorch、MXNet、Caffe等主流开源框架的深度学习加速引擎,它针对训练场景和推理场景,结合阿里云的网络和异构计算架构作了优化,云上训练有2-14倍的性能提升,推理场景下性能提升2-6倍。

正式购买之前,推荐先领取代金券在购买(附代金券领取地址:阿里云官方云小站),可帮助我们进一步降低购买成本。

 

阿里云GPU云服务器特惠
官方活动详情地址:点此进入阿里云GPU云服务器特惠3折起活动

 

除了gn7i实例,阿里云异构计算去年还推出了基于A100的gn7实例,面向人工智能训练场景和高性能计算。丰富的实例家族,加上阿里云异构计算独有的cGPU容器技术、弹性加速计算实例(EAIS)与神龙AI加速引擎(AIACC)三大特色优势,一同组成阿里云异构计算产品家族,为用户提供灵活高效、性能超群的异构计算基础设施。

 

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
5天前
|
存储 缓存 运维
阿里云服务器经济型e与通用算力型u1实例各自性能、适用场景区别及选择参考
在选择阿里云服务器实例规格时,经济型e实例和通用算力型u1实例因其高性价比和广泛适用性,备受个人开发者、中小企业的青睐。在同地域、相同配置的情况下,经济型e和通用算力型u1实例的价格相对于其他实例规格要低一些,很多个人和初创企业用户都会优先考虑选择这两个实例规格的云服务器,那么它们之间有什么区别?各自的性能、适用场景上有何区别?我们应该如何选择呢?本文将详细解析这两款实例的性能特点、适用场景、价格优势及购买建议,帮助用户更好地理解并选择合适的云服务器实例。
|
7天前
|
人工智能 Java Serverless
阿里云函数计算助力AI大模型快速部署
随着人工智能技术的快速发展,AI大模型已经成为企业数字化转型的重要工具。然而,对于许多业务人员、开发者以及企业来说,探索和利用AI大模型仍然面临诸多挑战。业务人员可能缺乏编程技能,难以快速上手AI模型;开发者可能受限于GPU资源,无法高效构建和部署AI应用;企业则希望简化技术门槛,以更低的成本和更高的效率利用AI大模型。
45 12
|
3天前
|
存储 人工智能 自然语言处理
ChatMCP:基于 MCP 协议开发的 AI 聊天客户端,支持多语言和自动化安装 MCP 服务器
ChatMCP 是一款基于模型上下文协议(MCP)的 AI 聊天客户端,支持多语言和自动化安装。它能够与多种大型语言模型(LLM)如 OpenAI、Claude 和 OLLama 等进行交互,具备自动化安装 MCP 服务器、SSE 传输支持、自动选择服务器、聊天记录管理等功能。
43 14
ChatMCP:基于 MCP 协议开发的 AI 聊天客户端,支持多语言和自动化安装 MCP 服务器
|
17天前
|
存储 人工智能 自然语言处理
拥抱Data+AI|B站引入阿里云DMS+X,利用AI赋能运营效率10倍提升
本篇文章针对B站在运营场景中的痛点,深入探讨如何利用阿里云Data+AI解决方案实现智能问数服务,赋能平台用户和运营人员提升自助取数和分析能力,提高价值交付效率的同时为数据平台减负。
拥抱Data+AI|B站引入阿里云DMS+X,利用AI赋能运营效率10倍提升
|
10天前
|
人工智能 NoSQL MongoDB
阿里云与MongoDB庆祝合作五周年,展望AI赋能新未来
阿里云与MongoDB庆祝合作五周年,展望AI赋能新未来
|
5天前
|
人工智能 Cloud Native 调度
阿里云容器服务在AI智算场景的创新与实践
本文源自张凯在2024云栖大会的演讲,介绍了阿里云容器服务在AI智算领域的创新与实践。从2018年推出首个开源GPU容器共享调度方案至今,阿里云容器服务不断推进云原生AI的发展,包括增强GPU可观测性、实现多集群跨地域统一调度、优化大模型推理引擎部署、提供灵活的弹性伸缩策略等,旨在为客户提供高效、低成本的云原生AI解决方案。
|
3天前
|
弹性计算 安全 开发工具
灵码评测-阿里云提供的ECS python3 sdk做安全组管理
批量变更阿里云ECS安全组策略(批量变更)
|
12天前
|
人工智能 数据可视化 专有云
阿里云飞天企业版获评2024年AI云典型案例
近日,由全球数字经济大会组委会主办、中国信息通信研究院和中国通信企业协会承办的“云·AI·计算国际合作论坛”作为2024全球数字经济大会系列活动之一,在北京举办。论坛以“智启云端,算绘蓝图”为主题,围绕云·AI·计算产业发展、关键技术、最佳实践等展开交流讨论。阿里云飞天企业版异构算力调度平台获评2024年AI云典型案例。
|
17天前
|
存储 人工智能 缓存
官宣开源 阿里云与清华大学共建AI大模型推理项目Mooncake
近日,清华大学和研究组织9#AISoft,联合以阿里云为代表的多家企业和研究机构,正式开源大模型资源池化项目 Mooncake。
|
18天前
|
人工智能 并行计算 流计算
【AI系统】GPU 架构与 CUDA 关系
本文介绍了英伟达GPU硬件基础概念,重点解析了A100 GPU架构中的GPC、TPC、SM等组件及其功能。接着深入讲解了CUDA并行计算平台和编程模型,特别是CUDA线程层次结构。最后,文章探讨了如何根据CUDA核心数量、核心频率等因素计算GPU的算力峰值,这对于评估大模型训练的算力需求至关重要。
43 2

热门文章

最新文章