阿里云倚天710 ARM CPU架构的实例规格族c8y、g8y、r8y实例介绍

简介: 阿里云服务器ECS实例包含了x86 CPU架构和倚天710 ARM CPU架构,与x86架构不同的是,倚天云服务器采用的ARM架构,基于倚天实例的云服务器(即倚天云服务器),通过芯片快速路径加速手段,完成计算、存储、网络性能的数量级提升,可应用于云原生、视频编解码、高性能计算、基于CPU的机器学习和游戏服务等场景。

阿里云服务器ECS实例包含了x86 CPU架构和倚天710 ARM CPU架构,与x86架构不同的是,倚天云服务器采用的ARM架构,基于倚天实例的云服务器(即倚天云服务器),通过芯片快速路径加速手段,完成计算、存储、网络性能的数量级提升,可应用于云原生、视频编解码、高性能计算、基于CPU的机器学习和游戏服务等场景。

一、倚天云服务器实例规格有哪些?

基于倚天710 ARM CPU架构的实例规格族有:

  • 通用型实例规格族g8y
  • 计算型实例规格族c8y
  • 内存型实例规格族r8y

倚天云服务器采用阿里云自研倚天710 ARM架构CPU,依托第四代神龙架构,提供稳定可预期的超高性能。同时通过芯片快速路径加速手段,完成存储、网络性能以及计算稳定性的数量级提升。小编相信,未来倚天云服务器实例规格将是阿里云主打的云服务器实例,各方面性能将在目前主售的计算型c6/c7、通用型g6/g7、内存型r6/r7等实例基础上进一步提升。目前,这三个实例规格族正在公测中,公测地域仅支持华北2(北京)、华东2(上海)、华东1(杭州)和华南1(深圳)。不过现在也可以直接购买阿里云倚天云服务器,我们进入云服务器ECS产品页面:https://www.aliyun.com/product/ecs,选择华北2(北京)、华东2(上海)、华东1(杭州)和华南1(深圳)地域即可看到阿里云倚天云服务器,如下图所示:
内存型r8y购买展示图.png

二、倚天云服务器实例计算能力

  • 计算型实例规格族c8y实例处理器与内存配比为1:2
  • 通用型实例规格族g8y实例处理器与内存配比为1:4
  • 内存型实例规格族r8y实例处理器与内存配比为1:8
  • 处理器:2.75 GHz主频的倚天710处理器,计算性能稳定

三、倚天云服务器实例存储

  • I/O优化实例
  • 仅支持ESSD云盘
  • 实例存储I/O性能与计算规格对应(规格越高存储I/O性能越强)
  • 支持NVMe云盘,支持云盘多重挂载功能,满足企业级核心业务的要求。

四、倚天云服务器网络能力

  • 支持IPv6
  • 超高网络收发包PPS能力
  • 小规格实例网络带宽具备突发能力
  • 实例网络性能与计算规格对应(规格越高网络性能越强)
  • 支持eRDMA特性,每个规格可选支持开启1个ERI(Elastic RDMA Interface)网卡。

五、倚天云服务器适用场景:

  • 容器、微服务
  • 网站和应用服务器
  • 视频编解码
  • 高性能计算
  • 基于CPU的机器学习
六、倚天云服务器各个实例规格及指标数据

1、r8y包括的实例规格及指标数据如下表所示

实例规格 vCPU 内存(GiB) 网络带宽基础/突发(Gbit/s) 网络收发包PPS 连接数 多队列 弹性网卡 弹性eRDM网卡(ERI) 单网卡私有IPv4地址数 单网卡IPv6地址数 云盘IOPS 云盘带宽(Gbit/s)
ecs.c8y.small 1 2 1/10 50万 最高25万 1 2 0 3 3 1万/最高11万 1/最高6
ecs.c8y.large 2 4 2/10 90万 最高25万 2 3 1 6 6 2万/最高11万 1.5/最高6
ecs.c8y.xlarge 4 8 3/10 100万 最高25万 4 4 1 15 15 4万/最高11万 2/最高6
ecs.c8y.2xlarge 8 16 5/10 160万 最高25万 8 4 1 15 15 5万/最高11万 3/最高6
ecs.c8y.4xlarge 16 32 10/16 300万 40万 8 8 1 30 30 8万/最高11万 5/最高6
ecs.c8y.8xlarge 32 64 16/无 500万 75万 16 8 1 30 30 12.5万 8
ecs.c8y.16xlarge 64 128 32/无 1000万 150万 32 8 1 30 30 25万 16
ecs.c8y.32xlarge 128 256 64/无 2000万 300万 32 15 1 30 30 50万 32

2、g8y包括的实例规格及指标数据如下表所示

实例规格 vCPU 内存(GiB) 网络带宽基础/突发(Gbit/s) 网络收发包PPS 连接数 多队列 弹性网卡 单网卡私有IPv4地址数 单网卡IPv6地址数 云盘IOPS 云盘带宽(Gbit/s)
ecs.g8y.small 1 4 1/10 50万 最高25万 1 2 3 3 1万/最高11万 1/最高6
ecs.g8y.large 2 8 2/10 90万 最高25万 2 3 6 6 2万/最高11万 1.5/最高6
ecs.g8y.xlarge 4 16 3/10 100万 最高25万 4 4 15 15 4万/最高11万 2/最高6
ecs.g8y.2xlarge 8 32 5/10 160万 最高25万 8 4 15 15 5万/最高11万 3/最高6
ecs.g8y.4xlarge 16 64 10/16 300万 40万 8 8 30 30 8万/最高11万 5/最高6
ecs.g8y.8xlarge 32 128 16/无 500万 75万 16 8 30 30 12.5万 8
ecs.g8y.16xlarge 64 256 32/无 1000万 150万 32 8 30 30 25万 16
ecs.g8y.32xlarge 128 512 64/无 2000万 300万 32 15 30 30 50万 32

3、r8y包括的实例规格及指标数据如下表所示

实例规格 vCPU 内存(GiB) 网络带宽基础/突发(Gbit/s) 网络收发包PPS 连接数 多队列 弹性网卡 弹性eRDM网卡(ERI) 单网卡私有IPv4地址数 单网卡IPv6地址数 云盘IOPS 云盘带宽(Gbit/s)
ecs.r8y.small 1 8 1/10 50万 最高25万 1 2 0 3 3 1万/最高11万 1/最高6
ecs.r8y.large 2 16 2/10 90万 最高25万 2 3 1 6 6 2万/最高11万 1.5/最高6
ecs.r8y.xlarge 4 32 3/10 100万 最高25万 4 4 1 15 15 4万/最高11万 2/最高6
ecs.r8y.2xlarge 8 64 5/10 160万 最高25万 8 4 1 15 15 5万/最高11万 3/最高6
ecs.r8y.4xlarge 16 128 10/16 300万 40万 8 8 1 30 30 8万/最高11万 5/最高6
ecs.r8y.8xlarge 32 256 16/无 500万 75万 16 8 1 30 30 12.5万 8
ecs.r8y.16xlarge 64 512 32/无 1000万 150万 32 8 1 30 30 25万 16
ecs.r8y.32xlarge 128 1024 64/无 2000万 300万 32 15 1 30 30 50万 32

更多阿里云服务器实例规格及性能可参考官方资料:云服务器 ECS>实例>实例规格族

相关实践学习
通义万相文本绘图与人像美化
本解决方案展示了如何利用自研的通义万相AIGC技术在Web服务中实现先进的图像生成。
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
相关文章
|
9月前
|
存储 智能硬件
CPU的定义与功能与架构
CPU(中央处理器)是计算机的核心部件,负责执行程序指令、控制数据传输和进行运算。它能处理算术与逻辑运算,并协调其他硬件协同工作。x86架构源于英特尔,适用于PC和服务器,采用复杂指令集;ARM架构则由Acorn等公司开发,广泛用于移动设备和嵌入式系统,采用精简指令集,功耗低且能效比高。
1047 5
|
10月前
|
弹性计算 编解码 运维
飞天技术沙龙回顾:业务创新新选择,倚天 Arm 架构深入探讨
飞天技术沙龙回顾:业务创新新选择,倚天 Arm 架构深入探讨
251 1
|
缓存 C语言 计算机视觉
程序与技术分享:CPU0处理器的架构及应用
程序与技术分享:CPU0处理器的架构及应用
|
11月前
|
人工智能 前端开发 测试技术
为RTP-LLM提供Arm CPU后端,助力Arm
本次主题是为 RTP LLM 提供 Arm CPU 后端,助力 Arm AI 软件生态持续发展。随着大语言模型(LLM)的普及与应用, AI 计算需求快速增长。许多 LLM 模型运行在基于 GPU 的硬件上,而随着 Arm 架构不仅在边缘设备,而且在数据中心领域也愈发流行,如何让 RTP LLM (实时推理框架)有效支持 Arm CPU 平台变得尤为重要。通过优化 LLM 在 Arm 平台的推理性能,可以进一步提升功耗效率和模型部署的灵活性。
450 0
|
存储 人工智能 编译器
【AI系统】CPU 指令集架构
本文介绍了指令集架构(ISA)的基本概念,探讨了CISC与RISC两种主要的指令集架构设计思路,分析了它们的优缺点及应用场景。文章还简述了ISA的历史发展,包括x86、ARM、MIPS、Alpha和RISC-V等常见架构的特点。最后,文章讨论了CPU的并行处理架构,如SISD、SIMD、MISD、MIMD和SIMT,并概述了这些架构在服务器、PC及嵌入式领域的应用情况。
1013 5
|
存储 缓存 开发者
CPU的架构涵盖哪些方面
CPU(中央处理单元)的架构指的是CPU的设计和组织方式,包括其内部结构、数据通路、指令集、寄存器配置、存储器管理和输入输出等一系列设计原则和技术的综合体现。
400 1
|
人工智能 云计算 数据中心
云计算演进问题之阿里云自研CPU倚天710的部署如何解决
云计算演进问题之阿里云自研CPU倚天710的部署如何解决
169 1
|
NoSQL Redis 开发工具
Redis性能优化问题之检查 Redis 实例是否启用了透明大页机制,如何解决
Redis性能优化问题之检查 Redis 实例是否启用了透明大页机制,如何解决
|
存储 缓存 开发者
CPU的架构指什么?
CPU(中央处理单元)的架构指的是CPU的设计和组织方式,包括其内部结构、数据通路、指令集、寄存器配置、存储器管理和输入输出等一系列设计原则和技术的综合体现。
883 0
|
机器学习/深度学习 人工智能 并行计算
GPU 和 CPU 处理器的架构
CPU(中央处理器)和 GPU(图形处理单元)是计算机系统中最重要的两种处理器。它们各自的架构设计和技术体系决定了其在不同应用领域中的性能和效率。
670 1

热门文章

最新文章