带你读《弹性计算—无处不在的算力》第三章:计算产品和技术3.4 异构计算云服务和AI 加速器(一)

简介: 《弹性计算—无处不在的算力》第三章:计算产品和技术3.4 异构计算云服务和AI 加速器(一)


异构计算指由不同类型指令集和体系架构的计算单元组成系统的计算方式,目前主要包括GPUFPGA 和定制ASIC 等。它们好比天赋异禀的独门高手,在特定场景下比普通的云服务器高出一个甚至更多数量级的性价比和效率,例如,在图形图像处理、机器学习、科学计算等场景下。要把这些异构计算设备包装成云服务器,同样需要对它们进行虚拟化。而由于这些设备的特殊性,其虚拟化技术或多或少地有别 于CPU


随着人工智能浪潮的兴起,越来越多的AI 计算都采用异构计算来实现性能加速。异构计算能够为越来越复杂和精确的AI 的计算模型带来大幅性能提升,现在, AI 开发者大部分都采用了TensorFlowPyTorch 等主流的AI 计算框架来实现异构计算的性能加速。但是,这些主流的AI 框架不能充分发挥异构计算超强的计算能力, 因此我们针对异构计算云服务研发了云端 AI 加速器,通过统一的框架同时支持了


TensorFlowPyTorchMXNetCaffe 4 种主流AI 计算框架的性能加速,并且针对以太网和异构加速器本身进行了深入的性能优化。


3.4.1 功能特点

异构计算GPU

视觉、图形、虚拟现实、大数据和人工智能等新兴技术的发展和广泛应用对计算能力提出了更高的要求。传统计算机的计算主要是由计算机的中央处理器(CPU)完成的,CPU 除了必要的计算工作,还需要负责处理复杂的控制逻辑, 这就导致 CPU 的内部架构异常复杂,真正用于计算的部分占比并不高。随着芯片技术的发展,CPU 晶体管的数量不断增加,但是 CPU 的计算能力没办法得到质的提升。使用 CPU 对上述领域的数据进行处理,在经济性和实效性方面都无法满足实际应用的要求。异构计算因此而产生。


异构计算是相对于 CPU 的通用计算而言的,通过在现有 CPU 基础上引入新的硬件计算单元来解决上述问题。这些新的硬件单元针对特定的计算场景进行深度的优化和定制,在处理这一类计算任务时可以获得相比 CPU 几十倍甚至上百倍的效率提升。目前主流的异构计算解决方案有GPUFPGA,在阿里云弹性计算的产品序列上, 它们分别对应GPU 云服务、FPGA 云服务和弹性加速实例服务(Elastic Acceleration Instance ServiceEAIS)。


GPU 云服务器是基于GPU 应用的计算服务器。在GPU 硬件支持虚拟化之前, 已经在各个领域被广泛应用。GPU 在执行复杂的数学和几何计算方面有着独特的优势。特别是在浮点运算、并行计算等方面,GPU 可以提供上百倍于CPU 的计算能力。GPU 云服务器让GPU 的使用更便捷、成本更低,GPU 上云是大势所趋。GPU 云服务器发布和人工智能爆发在同一年,两者相互促进。GPU 云服务器已经成为人工智能应用依赖的基础设施。


CPU 相比,GPU 硬件的使用需要复杂的生态软件支持,环境的构建较为复杂, 以NVIDIA GPU 硬件为例,底层安装的GPU 硬件驱动,并行计算需要CUDAcuDNN 等基础库支持,上层应用还需要设置各种的环境变量,使用比较复杂。GPU 云服务器是虚拟化云服务器的一个规格族,具有虚拟化服务器的一切特性:在环境复用性上利用自定义镜像等功能,可以很便捷地规模化使用;支持停机迁移,GPU 或宿主机出现故障时,可以通过冷迁移,在几分钟内恢复起来。当前GPU 分片虚拟化技术已经成熟,各云服务提供商已经试水上线对应的规格,和GPU 直通相比,具容器服务对GPU 的支持已经非常成熟,GPU 硬件厂商对Docker 做了定制化的开发,在容器内可以获得GPU 全部功能,使用更加便捷。GPU 云服务器作为弹性的资源,在之上部署容器服务,从而实现弹性业务,这种架构方案已经被主流AI 公司广泛使用。


异构计算FPGA

FPGA 自诞生之初,就以高度灵活的可编程性提供类ASIC 的性能和能效比而被广泛应用于有线和无线通信、航空航天、医疗电子和汽车电子等领域。但是,相比CPU GPUFPGA 的开发周期较长(尽管只有ASIC 开发周期的一半乃至三分之一)、开发和使用门槛较高,使得FPGA 的开发人员远远少于CPU GPU 的开发人员,同时应用范围和知名度也受到了很大的限制。


随着云计算的蓬勃发展,各种新的数据中心应用层出不穷,对算力(比如AI) 和计算结果实时性(比如基因测序和视频直播)提出了越来越高的要求。而CPU 的算力随着摩尔定律的终结,短时间内很难有大的提升,业界也逐渐尝到了采用FPGA 进行特定workload 加速的巨大优势。因此,在数据中心大力推广FPGA 异构加速逐渐成为业界共识。与之相对应,AWS 和阿里云在2017 4 月先后发布了基于FPGA 的云上应用,也即FPGA as a Service。其目的是提供超高性价比、超低延时(相比CPU 或者GPU,下同)的云上FPGA 服务。微软也通过Catapult 项目,在自家的数据中心大量部署FPGA,支持Bing Office 365 业务,更于2019 10 月北美XDF 大会上推出了自家的FPGA as a Service 产品,进一步佐证了FPGA 异构加速在数据中心应用的光明前景。


一般来说,云上FPGA 服务应具备如下功能和特点。

一是易用性,包括购买和使用要达到类ECS(基于CPU 的计算服务)的方便快捷性;具备类ECS 的灵活调度性,随用随开、不用释放。

二是稳定性,要具备类ECS 的热升级、热迁移功能。

三是安全性,包括客户和第三方ISV IP 地址要被合理合法使用;能够防范各种针对FPGA 的恶意攻击及受到攻击后迅速恢复。

四是要提供FPGA 云上开发和使用的工具及环境,让用户和线下一样方便地开发各种FPGA 加速器并在云上部署。

弹性加速实例服务

弹性加速实例服务(EAIS)支持异构计算资源的弹性挂载,前端可以使用不带异构加速的ECS 实例,后端可以动态挂载或者卸载GPUFPGANPU 等实例,让普通ECS 具备异构计算加速的能力。EAIS 可以让CPU 和异构加速器的数量配比实现灵活可配置,从而满足AI 推理、渲染、视频编解码全场景对于不同CPU 和异构加速器的数量配比的需求。同时,后端的GPUFPGANPU 等实例通过池化管理和调度,可以灵活选择最适合用户工作负载的异构加速器,大大降低异构加速成本。


AI 加速器

AI 加速器通过统一的框架同时支持TensorFlowPyTorchMXNetCaffe 4 种主流的人工智能计算框架的分布式性能加速,并且针对以太网和异构加速器都做了很深入的性能优化,在不同场景不同训练规模下可以提升1 10 倍的训练性能。同时,AI 加速器和各AI 计算框架是解耦的,一方面可以轻松支持各AI 计算框架社区版本的向前迭代;另一方面,用户使用各AI 计算框架实现的模型、算法代码基本上不用修改,就可以很轻松的获得性能加速。


相关实践学习
通义万相文本绘图与人像美化
本解决方案展示了如何利用自研的通义万相AIGC技术在Web服务中实现先进的图像生成。
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
相关文章
|
8天前
|
机器学习/深度学习 人工智能 数据安全/隐私保护
阿里云 Qwen3 全栈 AI 模型:技术解析、开发者实操指南与 100 万企业落地案例
阿里云发布Qwen3全栈AI体系,推出Qwen3-Max、Qwen3-Next等七大模型,性能全球领先,开源生态超6亿次下载。支持百万级上下文、多模态理解,训练成本降90%,助力企业高效落地AI。覆盖制造、金融、创作等场景,提供无代码与代码级开发工具,共建超级AI云生态。
168 6
|
14天前
|
机器学习/深度学习 人工智能 自然语言处理
AIGC技术深度解析:生成式AI的革命性突破与产业应用实战
蒋星熠Jaxonic,AI技术探索者,深耕生成式AI领域。本文系统解析AIGC核心技术,涵盖Transformer架构、主流模型对比与实战应用,分享文本生成、图像创作等场景的实践经验,展望技术趋势与产业前景,助力开发者构建完整认知体系,共赴AI原生时代。
|
18天前
|
机器学习/深度学习 人工智能 资源调度
嵌入式AI领域关键技术的理论基础
本内容系统讲解嵌入式AI领域关键技术的数学理论基础,涵盖神经网络量化、剪枝、知识蒸馏与架构搜索的核心原理。深入探讨量化中的信息论与优化方法、稀疏网络的数学建模、蒸馏中的信息传递机制,以及神经架构搜索的优化框架,为在资源受限环境下实现高效AI推理提供理论支撑。
58 5
|
18天前
|
存储 机器学习/深度学习 人工智能
​​解锁AI检索的7大Embedding技术:从稀疏到多向量,一文掌握!​
本文系统解析七种主流文本嵌入技术,包括 Sparse、Dense、Quantized、Binary、Matryoshka 和 Multi-Vector 方法,结合适用场景提供实用选型建议,助你高效构建文本检索系统。
148 0
|
6天前
|
人工智能 安全 中间件
阿里云 AI 中间件重磅发布,打通 AI 应用落地“最后一公里”
9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScope-Java(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。
|
7天前
|
数据采集 人工智能 前端开发
Playwright与AI智能体的网页爬虫创新应用
厌倦重复测试与低效爬虫?本课程带您掌握Playwright自动化工具,并融合AI大模型构建智能体,实现网页自主分析、决策与数据提取,完成从脚本执行到智能架构的能力跃升。
|
7天前
|
人工智能 运维 安全
聚焦 AI 应用基础设施,云栖大会 Serverless AI 全回顾
2025 年 9 月 26 日,为期三天的云栖大会在杭州云栖小镇圆满闭幕。随着大模型技术的飞速发展,我们正从云原生时代迈向一个全新的 AI 原生应用时代。为了解决企业在 AI 应用落地中面临的高成本、高复杂度和高风险等核心挑战,阿里云基于函数计算 FC 发布一系列重磅服务。本文将对云栖大会期间 Serverless+AI 基础设施相关内容进行全面总结。
|
8天前
|
设计模式 机器学习/深度学习 人工智能
AI-Native (AI原生)图解+秒懂: 什么是 AI-Native 应用(AI原生应用)?如何设计一个 AI原生应用?
AI-Native (AI原生)图解+秒懂: 什么是 AI-Native 应用(AI原生应用)?如何设计一个 AI原生应用?
|
9天前
|
人工智能 负载均衡 API
Vercel 发布 AI Gateway 神器!可一键访问数百个模型,助力零门槛开发 AI 应用
大家好,我是Immerse,独立开发者、AGI实践者。分享编程、AI干货、开源项目与个人思考。关注公众号“沉浸式趣谈”,获取独家内容。Vercel新推出的AI Gateway,统一多模型API,支持自动切换、负载均衡与零加价调用,让AI开发更高效稳定。一行代码切换模型,告别接口烦恼!
106 1
Vercel 发布 AI Gateway 神器!可一键访问数百个模型,助力零门槛开发 AI 应用

热门文章

最新文章