能效提升3倍,登临科技展示国内唯一量产GPU实力

简介: AI 时代应该构建什么样的 GPU?这家创业公司给出了自己的答案。

去年 5 月,1750 亿参数的超大预训练模型 GPT-3 让世人惊艳,AI 模型体量大规模增长之后产生的效果出乎预料,引发了新一轮的技术发展。今年,一些 AI 模型的体量已经达到了万亿参数,这样的超级模型需要无数 GPU 进行并联计算。


然而不断膨胀的算力需求成为了挑战:摩尔定律已逐渐走向尽头。而在算力之外,硬件功耗与散热的挑战也阻碍着 AI 应用的落地。


7 月 10 日,在上海举行的 2021 年世界人工智能大会(WAIC)开发者论坛上,登临科技创始人兼 CEO 李建文围绕「GPU+: AI 新时代下的软硬件协同异构计算平台」为主题进行了演讲。在活动中,李建文给线上线下两万多位观众展示的了登临科技 GPU + 产品的卓越能效。这家国内少有的,选择 GPU 赛道、直面英伟达的创业公司在近期受到了社会各界的强势围观。


image.png

登临科技创始人兼 CEO 李建文在 AI 开发者论坛上。


「在服务器及云端大规模应用 GPU,是因为它的通用性好,可以运行各类神经网络,这也与云端计算的需求非常吻合。但另一方面,GPU 计算 AI 负载时的效率还不是很高,」李建文说道。「登临科技 GPU + 的核心理念是继承现有软件生态和 GPU 的通用性,又通过架构创新来弥补 GPU 的缺点。」


在深度学习引领的最近一波 AI 浪潮中,GPU 扮演着重要作用,大量开源生态的应用开发基础设施是在英伟达 CUDA 软件生态上完成的。如何保持客户已有的投入,是 AI 技术产业化的重要课题。


与很多科技公司选择「特定领域体系结构」ASIC 的方向不同,登临科技希望能够找到一种与现有 GPU 产品兼容,同时又可以大幅度提高 AI 模型计算效率的技术路线。


image.png


登临科技提出的「GPU+」是一种软件定义的片内异构通用人工智能处理器。传统的异构计算是以不同种类的芯片在系统上实现的,这种方式面临着芯片间数据传递的瓶颈。登临科技的 GPU + 则在片内集成了多种计算引擎,从而解决了这个难题。


「我们把不同的计算引擎,GPGPU 和针对张量计算相关的计算引擎集成到了一起,调度引擎可以在高维度来控制算力的分配。登临的片内异构计算可以扩展到其他的异构引擎,这些引擎既可以并行计算,也可以独立工作。另外我们还有自主研发的高吞吐数据交换网络。」李建文介绍道。


这种架构在数据流、执行模型、内存管理和数据存储上,相对于传统 GPU 都有非常大的改进。由于在更高的抽象维度上进行调度和算力分配,它增加了计算密度,提高了效率,极大地降低了 GPU 对于外部带宽的需求。


目前,登临科技 Goldwasser 系列产品已实现规模量产。Goldwasser 系列产品:包括边缘计算产品 Goldwasser UL,功率 25-35W,INT8 算力 32-64TOPS;半高半长的服务器计算卡 Goldwasser L,功耗 40-70W,提供 128-256TOPS 算力;另有一种全高全长的 Goldwasser XL,输出 512TOPS 算力。


image.png


在实测过程中,登临的 GPU + 在 40W TDP 时输出了 128TOPS 算力,和国际主流产品对比其功耗更低,性能更高。在同样的工艺上,GPU + 可以以更小的芯片面积,在同样功耗下,在不同神经网络上提升 3-10 倍计算效率,并同时可减低芯片性能对外存吞吐的依赖。


image.png


在软件层面上,Goldwasser 支持目前开发者最常用的 GPU 编程方式,李建文介绍说,GPU + 在提供兼容 CUDA/OpenCL 硬件加速能力的前提下,全面支持各类流行的人工智能网络框架及底层算子。


登临开发的 Hamming 工具链,不仅支持传统 GPU 使用的硬件加速方式,PyTorch、TensorFlow、飞桨等国内外主流深度学习框架,在 CPU 适配上也支持国内外主流 X86 和 ARM 产品。登临也和多家服务器厂商合作,适配了多种服务器。对于企业客户来说,原本在 GPU 及 CUDA 平台上开发的程序,可以无缝迁移至登临的产品上。


「从应用场景来看,今天在 GPU 上运行的所有应用都能在我们的产品上运行。而针对 AI 应用,Goldwasser 可以用更高的效率来完成。」李建文说道。


GPU+ 的异构设计让客户可以在现有生态投入的基础上无缝转换,同时显著提升计算效率,并降低外部计算带宽的需求,这种方式可以大幅度降低服务器总体使用成本(TCO) 。登临选择 GPU + 异构架构的首个产品化方向,将成为未来芯片 AI 算力提升的一个有效途径。


登临科技成立于 2017 年 11 月,总部位于上海,在硅谷、成都、杭州等城市均设有研发中心。目前,首款基于 GPU + 架构的 Goldwasser 系列产品已在多个行业的领军企业进行量产导入,并得到客户的积极反馈。

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
视频直播 芯片 异构计算
山东布谷科技直播系统源码热点分析:不同芯片实现高质量编码与渲染视频的GPU加速功能
总而言之,对于直播系统源码来说,GPU加速功能是提升实时图像质量和观看体验的重要手段,是不可或缺的重要功能技术之一。
山东布谷科技直播系统源码热点分析:不同芯片实现高质量编码与渲染视频的GPU加速功能
|
缓存 安全 前端开发
Arm新一代架构发布:CPU能效提升40%,GPU性能提升15%
Arm新一代架构发布:CPU能效提升40%,GPU性能提升15%
760 0
|
1月前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
230 1
|
1月前
|
人工智能 城市大脑 运维
喜讯!阿里云国产异构GPU云平台技术荣获“2025算力中国·年度重大成果”
2025年8月23日,在工业和信息化部新闻宣传中心、中国信息通信研究院主办的2025中国算力大会上,阿里云与浙江大学联合研发的“国产异构GPU云平台关键技术与系统”荣获「算力中国·年度重大成果」。该评选旨在选拔出算力产业具有全局性突破价值的重大成果,是业内公认的技术创新“风向标”。
248 0
|
6月前
|
存储 机器学习/深度学习 数据库
阿里云服务器X86/ARM/GPU/裸金属/超算五大架构技术特点、场景适配参考
在云计算技术飞速发展的当下,云计算已经渗透到各个行业,成为企业数字化转型的关键驱动力。选择合适的云服务器架构对于提升业务效率、降低成本至关重要。阿里云提供了多样化的云服务器架构选择,包括X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器以及高性能计算等。本文将深入解析这些架构的特点、优势及适用场景,以供大家了解和选择参考。
1145 61
|
9月前
|
存储 机器学习/深度学习 人工智能
2025年阿里云GPU服务器租用价格、选型策略与应用场景详解
随着AI与高性能计算需求的增长,阿里云提供了多种GPU实例,如NVIDIA V100、A10、T4等,适配不同场景。2025年重点实例中,V100实例GN6v单月3830元起,适合大规模训练;A10实例GN7i单月3213.99元起,适用于混合负载。计费模式有按量付费和包年包月,后者成本更低。针对AI训练、图形渲染及轻量级推理等场景,推荐不同配置以优化成本和性能。阿里云还提供抢占式实例、ESSD云盘等资源优化策略,支持eRDMA网络加速和倚天ARM架构,助力企业在2025年实现智能计算的效率与成本最优平衡。 (该简介为原文内容的高度概括,符合要求的字符限制。)
|
7月前
|
存储 机器学习/深度学习 算法
阿里云X86/ARM/GPU/裸金属/超算等五大服务器架构技术特点、场景适配与选型策略
在我们选购阿里云服务器的时候,云服务器架构有X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器、高性能计算可选,有的用户并不清楚他们之间有何区别。本文将深入解析这些架构的特点、优势及适用场景,帮助用户更好地根据实际需求做出选择。
|
9月前
|
边缘计算 调度 对象存储
部署DeepSeek但IDC GPU不足,阿里云ACK Edge虚拟节点来帮忙
介绍如何使用ACK Edge与虚拟节点满足DeepSeek部署的弹性需求。
|
9月前
|
机器学习/深度学习 存储 人工智能
2025年阿里云GPU服务器的租赁价格与选型指南
随着AI、深度学习等领域的发展,GPU服务器成为企业及科研机构的核心算力选择。阿里云提供多种GPU实例类型(如NVIDIA V100、A100等),涵盖计算型、共享型和弹性裸金属等,满足不同场景需求。本文详解2025年阿里云GPU服务器的核心配置、价格策略及适用场景,帮助用户优化选型与成本控制,实现高效智能计算。

热门文章

最新文章