ARM发布新CPU/GPU架构 优化支持移动VR

简介:


Cortex-A73 CPU和Mali-G71 GPU 

北京时间5月30日消息,据外媒报道,移动处理器架构设计公司ARM在2016年台北电脑展前夕发布了新产品,这些产品预计将用于明年推出的高端手机中。Cortex-A73CPU和Mali-G71GPU旨在提升处理器的性能和功效,特别是提供对移动虚拟现实(VR)的支持。

ARM表示,Mali架构GPU在全球的使用最为广泛,去年的出货量超过7.5亿颗。新Mali-G71是首个使用ARM第三代架构Bifrost的产品。和前代MaliGPU相比,Mali-G71图形性能提高50%,功效提高20%,每平方毫米性能提高40%。

ARM称,随着Shader核心数量增加到至多32个,Mali-G71的性能能够和英伟达GTX940M独立笔记本GPU相提并论。Mali-G71还针对具体的VR问题进行了设计,支持4K分辨率、120赫兹刷新率、4毫秒图形处理延迟等。


Mali-G71 GPU性能介绍

处理器方面,ARM宣布推出新Cortex-A73核心,重点提升功效。和前代Cortex-A72相比,Cortex-A73功效提升30%,最高性能提升30%。不过,ARM还专注于Cortex-A73的持续使用表现。在Cortex-A73的功率分配范围内,它的性能提高一倍,这将意味着设备不必快速降低性能以节省电池寿命。

尽管ARM架构主导移动芯片领域,但是我们很有可能无法在2017年的旗舰手机上看到这些具体产品。ARM分开授权架构和核心,这就意味着企业可以自由选择他们想使用的架构和核心。例如,苹果取得了ARM的架构授权,但是现在自主设计定制CPU核心,并使用来自ImaginationTechnologies的PowerVRGPU解决方案。三星设计了部分Exynos处理器核心,但是在国际版GalaxyS7中将其与ARMCortex核心、MaliGPU一起使用。高通在骁龙820中改用了自主定制Kryo处理器核心,该处理器被用于美版GalaxyS7中。在此之前,高通在骁龙810中使用Cortex处理器核心。

所以,用户不应该将ARM列出的性能作为衡量自己下一步手机的基准,因为这取决于制造商选择使用哪种技术。但是,新Cortex、Mali产品确实能够显示出移动技术在性能和功效上的提升,它将用于解决VR等新挑战。

ARM预计,搭载新核心的芯片将在今年年底进入量产,明年初用于新上市的设备中。



本文出处:畅享网
本文来自云栖社区合作伙伴畅享网,了解相关信息可以关注vsharing.com网站。
相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
7月前
|
弹性计算 人工智能 Serverless
阿里云ACK One:注册集群云上节点池(CPU/GPU)自动弹性伸缩,助力企业业务高效扩展
在当今数字化时代,企业业务的快速增长对IT基础设施提出了更高要求。然而,传统IDC数据中心却在业务存在扩容慢、缩容难等问题。为此,阿里云推出ACK One注册集群架构,通过云上节点池(CPU/GPU)自动弹性伸缩等特性,为企业带来全新突破。
|
1月前
|
存储 机器学习/深度学习 数据库
阿里云服务器X86/ARM/GPU/裸金属/超算五大架构技术特点、场景适配参考
在云计算技术飞速发展的当下,云计算已经渗透到各个行业,成为企业数字化转型的关键驱动力。选择合适的云服务器架构对于提升业务效率、降低成本至关重要。阿里云提供了多样化的云服务器架构选择,包括X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器以及高性能计算等。本文将深入解析这些架构的特点、优势及适用场景,以供大家了解和选择参考。
259 61
|
2月前
|
缓存 并行计算 PyTorch
PyTorch CUDA内存管理优化:深度理解GPU资源分配与缓存机制
本文深入探讨了PyTorch中GPU内存管理的核心机制,特别是CUDA缓存分配器的作用与优化策略。文章分析了常见的“CUDA out of memory”问题及其成因,并通过实际案例(如Llama 1B模型训练)展示了内存分配模式。PyTorch的缓存分配器通过内存池化、延迟释放和碎片化优化等技术,显著提升了内存使用效率,减少了系统调用开销。此外,文章还介绍了高级优化方法,包括混合精度训练、梯度检查点技术及自定义内存分配器配置。这些策略有助于开发者在有限硬件资源下实现更高性能的深度学习模型训练与推理。
469 0
|
2月前
|
机器学习/深度学习 并行计算 PyTorch
英伟达新一代GPU架构(50系列显卡)PyTorch兼容性解决方案
本文记录了在RTX 5070 Ti上运行PyTorch时遇到的CUDA兼容性问题,分析其根源为预编译二进制文件不支持sm_120架构,并提出解决方案:使用PyTorch Nightly版本、更新CUDA工具包至12.8。通过清理环境并安装支持新架构的组件,成功解决兼容性问题。文章总结了深度学习环境中硬件与框架兼容性的关键策略,强调Nightly构建版本和环境一致性的重要性,为开发者提供参考。
1176 64
英伟达新一代GPU架构(50系列显卡)PyTorch兼容性解决方案
|
2月前
|
存储 机器学习/深度学习 算法
阿里云X86/ARM/GPU/裸金属/超算等五大服务器架构技术特点、场景适配与选型策略
在我们选购阿里云服务器的时候,云服务器架构有X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器、高性能计算可选,有的用户并不清楚他们之间有何区别。本文将深入解析这些架构的特点、优势及适用场景,帮助用户更好地根据实际需求做出选择。
|
5月前
|
存储 设计模式 监控
快速定位并优化CPU 与 JVM 内存性能瓶颈
本文介绍了 Java 应用常见的 CPU & JVM 内存热点原因及优化思路。
782 166
|
3月前
|
并行计算 PyTorch 算法框架/工具
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
本文探讨了如何通过技术手段混合使用AMD与NVIDIA GPU集群以支持PyTorch分布式训练。面对CUDA与ROCm框架互操作性不足的问题,文章提出利用UCC和UCX等统一通信框架实现高效数据传输,并在异构Kubernetes集群中部署任务。通过解决轻度与强度异构环境下的挑战,如计算能力不平衡、内存容量差异及通信性能优化,文章展示了如何无需重构代码即可充分利用异构硬件资源。尽管存在RDMA验证不足、通信性能次优等局限性,但该方案为最大化GPU资源利用率、降低供应商锁定提供了可行路径。源代码已公开,供读者参考实践。
223 3
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
|
3月前
|
存储 设计模式 监控
如何快速定位并优化CPU 与 JVM 内存性能瓶颈?
如何快速定位并优化CPU 与 JVM 内存性能瓶颈?
如何快速定位并优化CPU 与 JVM 内存性能瓶颈?
|
6月前
|
存储 缓存 监控
Docker容器性能调优的关键技巧,涵盖CPU、内存、网络及磁盘I/O的优化策略,结合实战案例,旨在帮助读者有效提升Docker容器的性能与稳定性。
本文介绍了Docker容器性能调优的关键技巧,涵盖CPU、内存、网络及磁盘I/O的优化策略,结合实战案例,旨在帮助读者有效提升Docker容器的性能与稳定性。
595 7
|
7月前
|
机器学习/深度学习 弹性计算 人工智能
阿里云服务器架构有啥区别?X86计算、Arm、GPU异构、裸金属和高性能计算对比
阿里云ECS涵盖x86、ARM、GPU/FPGA/ASIC、弹性裸金属及高性能计算等多种架构。x86架构采用Intel/AMD处理器,适用于广泛企业级应用;ARM架构低功耗,适合容器与微服务;GPU/FPGA/ASIC专为AI、图形处理设计;弹性裸金属提供物理机性能;高性能计算则针对大规模并行计算优化。
392 7

热门文章

最新文章