ARM公司公布CPU与GPU更新计划——一切为了AI

简介:

芯片设计厂商ARM公司于本周一公布其基于DynamIQ微处理器架构的第一波处理器产品,同时亦提到经过调整的GPU芯片设计方案。

ARM公司公布CPU与GPU更新计划——全部针对AI用例进行调整

ARM公司产品营销负责人John Ronco在接受电话采访时解释称,DynamIQ代表着“一种新的CPU整合方式,其能够提供更多配置选项,旨在更为灵活地实现CPU对接。”

Ronco介绍称,这项技术允许各计算核心以不同尺寸形式存在。此举相当于对2011年首次出台的big.LITTLE架构(其中各核心以分组形式存在,且不同分组间允许存在规模差异)进行扩展,且具备一系列潜在优势。举例来说,包含一个大型计算核心与七个小型计算核心的芯片能够利用较小核心执行持续性计算任务,而较大核心则面向性能密集型应用需求。

Ronco进一步解释道,“DynamIQ是一种新的计算核心拼接方式。在它的帮助下,您将能够对各计算核心进行混合与匹配,从而在自有设计方案中实现更多可能性。我们期待着看到更多用户将其中的大型计算核心引入各类中端设备之内。”

使用这种芯片架构设计的最初两款CPU分别为ARM Cortex-A75Cortex-A55,二者将于2018年第一季度开始逐步出现在各硬件制造商发布的设备当中。

Cortex-A75专为性能而生,这套设计方案可用于旗舰级手机设备、其它计算设备、基础设施以及车载系统芯片等等。根据ARM公司的说法,在主频为3 GHz的情况下,其SPECint 2006基准测试成绩可在运行速度方面超过原有Cortex-A73 50%以上。

Cortex-A55则面向效率进行调整。“其拥有极为强大的能源效率与成本效率,”Ronco指出,他同时预计这款芯片将被用于众多中端手机设备。

Ronco强调称,A55的上代产品A53已经成为目前普及范围最广的64CPU方案。

ARM公司宣称,16纳米制程的A55处理器相较于前代28纳米A53处理器,能够将能源效率提升达50%

Ronco解释道,“对于手机而言,由于其所能够提供的电池续航能力非常有限,因此持续使用时长对于用户来说可谓至关重要。”

Mali-G72 GPU

ARM公司还计划公布Mali-G72图形处理单元,以作为其Mali-G71的换代方案。该公司指出,其去年总计售出10亿块GPU,大约相当于2014年出货量的两倍。

G72针对图形密集型移动游戏、移动VR以及手机内机器学习等负载类型进行了优化,ARM公司产品营销主管Anand Patel表示。

根据Ronco的解释,目前正有越来越多的客户对于AI以及机器学习等方向抱有浓厚兴趣。“这在一定程度上改变了我们所处理的计算任务种类。”

最新的Mali设计当中包含用于强化机器学习计算能力的优化机制。举例来说,其通用矩阵到矩阵乘法(简称GEMM)计算的能源效率提升了17%

在接受电话采访时,咨询企业IDC公司分析师Abhi Dugar表示,AI类应用对于高通等大型ARM客户已经变得非常重要。



原文发布时间为: 2017年5月31日

本文作者:孙博

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
21天前
|
存储 人工智能 vr&ar
转载:【AI系统】CPU 基础
CPU,即中央处理器,是计算机的核心部件,负责执行指令和控制所有组件。本文从CPU的发展史入手,介绍了从ENIAC到现代CPU的演变,重点讲述了冯·诺依曼架构的形成及其对CPU设计的影响。文章还详细解析了CPU的基本构成,包括算术逻辑单元(ALU)、存储单元(MU)和控制单元(CU),以及它们如何协同工作完成指令的取指、解码、执行和写回过程。此外,文章探讨了CPU的局限性及并行处理架构的引入。
转载:【AI系统】CPU 基础
|
21天前
|
人工智能 缓存 并行计算
转载:【AI系统】CPU 计算本质
本文深入探讨了CPU计算性能,分析了算力敏感度及技术趋势对CPU性能的影响。文章通过具体数据和实例,讲解了CPU算力的计算方法、算力与数据加载之间的平衡,以及如何通过算力敏感度分析优化计算系统性能。同时,文章还考察了服务器、GPU和超级计算机等平台的性能发展,揭示了这些变化如何塑造我们对CPU性能的理解和期待。
转载:【AI系统】CPU 计算本质
|
2月前
|
人工智能 并行计算 流计算
【AI系统】GPU 架构与 CUDA 关系
本文介绍了英伟达GPU硬件基础概念,重点解析了A100 GPU架构中的GPC、TPC、SM等组件及其功能。接着深入讲解了CUDA并行计算平台和编程模型,特别是CUDA线程层次结构。最后,文章探讨了如何根据CUDA核心数量、核心频率等因素计算GPU的算力峰值,这对于评估大模型训练的算力需求至关重要。
57 2
|
2月前
|
机器学习/深度学习 存储 人工智能
【AI系统】为什么 GPU 适用于 AI
本文探讨了GPU在AI计算中的应用,从卷积计算的基本原理入手,解析了GPU线程分级与AI计算模式的关系,以及矩阵乘法如何通过GPU编程提升算力利用率。文章还介绍了计算强度的概念,分析了不同数据结构对计算强度的影响,以及GPU中Tensor Core的作用,强调了在不同存储位置下,找到计算强度与矩阵大小的最佳平衡点对AI计算系统优化的重要性。
81 2
|
2月前
|
机器学习/深度学习 人工智能 并行计算
【AI系统】GPU 架构回顾(从2010年-2017年)
自1999年英伟达发明GPU以来,其技术不断革新。本文概述了从2010年至2024年间,英伟达GPU的九代架构演变,包括费米、开普勒、麦克斯韦、帕斯卡、伏特、图灵、安培、赫柏和布莱克韦尔。这些架构不仅在游戏性能上取得显著提升,还在AI、HPC、自动驾驶等领域发挥了重要作用。CUDA平台的持续发展,以及Tensor Core、NVLink等技术的迭代,巩固了英伟达在计算领域的领导地位。
49 1
|
2月前
|
机器学习/深度学习 人工智能 缓存
【AI系统】GPU 架构回顾(从2018年-2024年)
2018年发布的Turing图灵架构,采用12nm工艺,包含18.6亿个晶体管,大幅提升了PC游戏、专业图形应用及深度学习推理的效率与性能。Turing引入了RT Core和Tensor Core,分别用于实时光线追踪和加速深度学习计算,支持GDDR6内存,显著提升了数据传输速率和效率。此外,Turing架构还支持NVLink 2.0,增强了多GPU协同工作的能力,适用于复杂的图形渲染和深度学习任务。
54 0
【AI系统】GPU 架构回顾(从2018年-2024年)
|
2月前
|
存储 缓存 人工智能
【AI系统】GPU 工作原理
本文详细解析了AI计算体系中的GPU工作原理,重点介绍了GPU与CPU在架构上的差异,强调了GPU在并行计算方面的优势。文章通过$AX+Y$的例子,展示了GPU如何通过并行和并发提高计算效率,并深入探讨了GPU的缓存机制及线程原理,解释了GPU如何通过大量线程和Warp来掩盖延迟问题,实现高效计算。
86 0
|
2月前
|
弹性计算 人工智能 Serverless
阿里云ACK One:注册集群云上节点池(CPU/GPU)自动弹性伸缩,助力企业业务高效扩展
在当今数字化时代,企业业务的快速增长对IT基础设施提出了更高要求。然而,传统IDC数据中心却在业务存在扩容慢、缩容难等问题。为此,阿里云推出ACK One注册集群架构,通过云上节点池(CPU/GPU)自动弹性伸缩等特性,为企业带来全新突破。
|
3天前
|
机器学习/深度学习 人工智能 PyTorch
阿里云GPU云服务器怎么样?产品优势、应用场景介绍与最新活动价格参考
阿里云GPU云服务器怎么样?阿里云GPU结合了GPU计算力与CPU计算力,主要应用于于深度学习、科学计算、图形可视化、视频处理多种应用场景,本文为您详细介绍阿里云GPU云服务器产品优势、应用场景以及最新活动价格。
阿里云GPU云服务器怎么样?产品优势、应用场景介绍与最新活动价格参考
|
9天前
|
人工智能 JSON Linux
利用阿里云GPU加速服务器实现pdf转换为markdown格式
随着AI模型的发展,GPU需求日益增长,尤其是个人学习和研究。直接购置硬件成本高且更新快,建议选择阿里云等提供的GPU加速型服务器。
利用阿里云GPU加速服务器实现pdf转换为markdown格式