ARM公司公布CPU与GPU更新计划——一切为了AI

简介:

芯片设计厂商ARM公司于本周一公布其基于DynamIQ微处理器架构的第一波处理器产品,同时亦提到经过调整的GPU芯片设计方案。

ARM公司公布CPU与GPU更新计划——全部针对AI用例进行调整

ARM公司产品营销负责人John Ronco在接受电话采访时解释称,DynamIQ代表着“一种新的CPU整合方式,其能够提供更多配置选项,旨在更为灵活地实现CPU对接。”

Ronco介绍称,这项技术允许各计算核心以不同尺寸形式存在。此举相当于对2011年首次出台的big.LITTLE架构(其中各核心以分组形式存在,且不同分组间允许存在规模差异)进行扩展,且具备一系列潜在优势。举例来说,包含一个大型计算核心与七个小型计算核心的芯片能够利用较小核心执行持续性计算任务,而较大核心则面向性能密集型应用需求。

Ronco进一步解释道,“DynamIQ是一种新的计算核心拼接方式。在它的帮助下,您将能够对各计算核心进行混合与匹配,从而在自有设计方案中实现更多可能性。我们期待着看到更多用户将其中的大型计算核心引入各类中端设备之内。”

使用这种芯片架构设计的最初两款CPU分别为ARM Cortex-A75Cortex-A55,二者将于2018年第一季度开始逐步出现在各硬件制造商发布的设备当中。

Cortex-A75专为性能而生,这套设计方案可用于旗舰级手机设备、其它计算设备、基础设施以及车载系统芯片等等。根据ARM公司的说法,在主频为3 GHz的情况下,其SPECint 2006基准测试成绩可在运行速度方面超过原有Cortex-A73 50%以上。

Cortex-A55则面向效率进行调整。“其拥有极为强大的能源效率与成本效率,”Ronco指出,他同时预计这款芯片将被用于众多中端手机设备。

Ronco强调称,A55的上代产品A53已经成为目前普及范围最广的64CPU方案。

ARM公司宣称,16纳米制程的A55处理器相较于前代28纳米A53处理器,能够将能源效率提升达50%

Ronco解释道,“对于手机而言,由于其所能够提供的电池续航能力非常有限,因此持续使用时长对于用户来说可谓至关重要。”

Mali-G72 GPU

ARM公司还计划公布Mali-G72图形处理单元,以作为其Mali-G71的换代方案。该公司指出,其去年总计售出10亿块GPU,大约相当于2014年出货量的两倍。

G72针对图形密集型移动游戏、移动VR以及手机内机器学习等负载类型进行了优化,ARM公司产品营销主管Anand Patel表示。

根据Ronco的解释,目前正有越来越多的客户对于AI以及机器学习等方向抱有浓厚兴趣。“这在一定程度上改变了我们所处理的计算任务种类。”

最新的Mali设计当中包含用于强化机器学习计算能力的优化机制。举例来说,其通用矩阵到矩阵乘法(简称GEMM)计算的能源效率提升了17%

在接受电话采访时,咨询企业IDC公司分析师Abhi Dugar表示,AI类应用对于高通等大型ARM客户已经变得非常重要。



原文发布时间为: 2017年5月31日

本文作者:孙博

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
打赏
0
0
0
0
192
分享
相关文章
exo:22.1K Star!一个能让任何人利用日常设备构建AI集群的强大工具,组成一个虚拟GPU在多台设备上并行运行模型
exo 是一款由 exo labs 维护的开源项目,能够让你利用家中的日常设备(如 iPhone、iPad、Android、Mac 和 Linux)构建强大的 AI 集群,支持多种大模型和分布式推理。
502 100
谷歌DeepMind联手牛津推出Bolt3D:AI秒速3D建模革命!单GPU仅需6秒生成3D场景
牛津大学与谷歌联合推出的Bolt3D技术,能在单个GPU上仅用6.25秒从单张或多张图像生成高质量3D场景,基于高斯溅射和几何多视角扩散模型,为游戏、VR/AR等领域带来革命性突破。
28 2
谷歌DeepMind联手牛津推出Bolt3D:AI秒速3D建模革命!单GPU仅需6秒生成3D场景
一键部署谷歌最新开源多模态AI模型 Gemma 3:单GPU性能碾压Llama!支持35+种语言
Gemma 3 是谷歌最新推出的开源多模态AI模型,支持超过35种语言,具备文本、图像及短视频处理能力,提供四种模型尺寸,优化单GPU性能,适用于多种AI应用场景。
270 8
一键部署谷歌最新开源多模态AI模型 Gemma 3:单GPU性能碾压Llama!支持35+种语言
MiniMind:2小时训练出你的专属AI!开源轻量级语言模型,个人GPU轻松搞定
MiniMind 是一个开源的超小型语言模型项目,帮助开发者以极低成本从零开始训练自己的语言模型,最小版本仅需25.8M参数,适合在普通个人GPU上快速训练。
264 10
MiniMind:2小时训练出你的专属AI!开源轻量级语言模型,个人GPU轻松搞定
轻量级AI革命:无需GPU就能运算的DeepSeek-R1-1.5B模型及其低配部署指南
随着AI技术发展,大语言模型成为产业智能化的关键工具。DeepSeek系列模型以其创新架构和高效性能备受关注,其中R1-1.5B作为参数量最小的版本,适合资源受限场景。其部署仅需4核CPU、8GB RAM及15GB SSD,适用于移动对话、智能助手等任务。相比参数更大的R1-35B与R1-67B+,R1-1.5B成本低、效率高,支持数学计算、代码生成等多领域应用,是个人开发者和初创企业的理想选择。未来,DeepSeek有望推出更多小型化模型,拓展低资源设备的AI生态。
69 8
大数据AI一体化开发再加速:DataWorks 支持GPU类型资源
大数据开发治理平台 DataWorks 的Serverless资源组支持GPU资源类型,以免运维、按需付费、弹性伸缩的Serverless架构,将大数据处理与AI开发能力无缝融合。面向大数据&AI协同开发场景,DataWorks提供了交互式开发和分析工具Notebook。开发者在创建个人开发环境时,可以选择GPU类型的资源作为Notebook运行环境,以支持进行高性能的计算工作。本教程将基于开源多模态大模型Qwen2-VL-2B-Instruct,介绍如何使用 DataWorks Notebook及LLaMA Factory训练框架完成文旅领域大模型的构建。
262 24
弹性算力革命:企业级GPU云服务如何重构AI与图形处理的效能边界
企业级GPU云服务基于云计算技术,为企业提供强大的GPU资源,无需自购硬件。它广泛应用于人工智能、大数据、3D建模、动画制作、GIS及医疗影像等领域,加速深度学习训练、图形处理和科学计算,提升效率并降低成本。企业可按需获取计算资源,灵活应对业务高峰,优化成本结构,推动业务发展。
30 1
AI 场景下,函数计算 GPU 实例模型存储最佳实践
AI 场景下,函数计算 GPU 实例模型存储最佳实践

热门文章

最新文章