【Hello AI】神龙AI加速引擎AIACC-加速深度学习应用

本文涉及的产品
轻量应用服务器 2vCPU 4GiB,适用于搭建Web应用/小程序
轻量应用服务器 2vCPU 4GiB,适用于搭建容器环境
轻量应用服务器 2vCPU 1GiB,适用于搭建电商独立站
简介: 神龙AI加速引擎AIACC是基于阿里云IaaS资源推出的AI加速引擎,用于优化基于AI主流计算框架搭建的模型,使用AIACC可加速深度学习应用,能显著提升模型的训练和推理性能。

神龙AI加速引擎AIACC是基于阿里云IaaS资源推出的AI加速引擎,用于优化基于AI主流计算框架搭建的模型,使用AIACC可加速深度学习应用,能显著提升模型的训练和推理性能。同时配合资源管理工具FastGPU快速构建AI计算任务,可以全面提升研发效率。接下来让我们一起更全面的了解阿里云——神龙AI加速引擎AIACC。


一、如何使用AIACC加速深度学习应用

神龙AI加速引擎AIACC包括AIACC-Training(AIACC训练加速)和AIACC-Inference(AIACC推理加速)两部分。通过AIACC加速深度学习应用时,基础架构图如下所示:


框架层

说明

资源层

(阿里云IaaS资源)

在资源层使用阿里云IaaS资源,按需开启,满足大规模GPU集群的计算、存储、网络资源的弹性需求。

调度层

(神龙AI加速资源管理)

在调度层使用FastGPU构建AI计算任务并管理大规模GPU集群相关的资源。更多信息,请参见什么是集群极速部署工具FastGPU

框架层

(神龙AI加速引擎)

在框架层使用AIACC实现多框架统一加速。AIACC主要利用了基于通信的性能优化技术,分布式训练时需要在各机器之间、GPU卡之间交换数据,需要做到高效的数据通信才能保证加速效果。更多信息,请参见神龙AI训练加速引擎AIACC-Training(AIACC训练加速)神龙AI推理加速引擎AIACC-Inference(AIACC推理加速)

应用层

(神龙AI加速参考解决方案)

在应用层实现针对各种应用场景的深度学习应用,覆盖图像识别、目标检测、视频识别、CTR预估、自然语言理解、语音识别等常见场景。由于在框架层使用AIACC实现多框架统一加速,您只需调整少量代码即可大幅提升应用性能。


二、产品优势

使用AIACC加速深度学习应用具有以下优势:

  • 基于阿里云IaaS资源,资源易用性和稳定性有保障。
  • 配合FastGPU一键构建任务,缩短创建和配置资源的时间并提高GPU资源利用率,大幅降低成本。
  • 支持多框架统一加速,显著提升训练和推理性能,且适配工作量较小。
  • 采用AI算法研发时,验证周期更短,模型迭代速度更快,从而大幅提升研发效率。


三、神龙AI训练加速引擎——AIACC-Training(AIACC训练加速)

AIACC-Training(原Ali-perseus、Perseus-Training)是阿里云神龙计算加速团队基于阿里云IaaS资源层研发和维护的高效人工智能分布式训练加速组件,旨在实现开源兼容以及无感地加速您的分布式训练任务。

  1. AIACC-Training(AIACC训练加速)的框架图如下所示:


框架层

说明

AI主流计算框架

AI主流计算框架包括TensorFlow、PyTorch、MxNet和Caffe。AIACC-Training支持对基于AI主流计算框架搭建的模型进行分布式训练和任务加速。

接口层

接口层主要包括统一通信接口类、统一基础组件类、统一基础通信类以及统一梯度入口层,该层提供了与AIACC-Training系统进行交互和通信的统一接口和组件。AIACC-Training兼容了PyTorch DDP和Horovod的API,对于原生的分布式训练实现了无感的性能加速。

底层加速层

底层加速层通常使用高性能分布式通信库统一实现模型的性能优化,与梯度协商优化、梯度融合优化、梯度压缩优化以及通信操作优化配合使用。针对阿里云网络基础设施和AI数据并行分布式训练的特性,AIACC-Training的优化带来了显著的性能提升。

  1. AIACC-Training(AIACC训练加速)支持的加速特性包括但不限于:
  • 梯度融合通信支持自适应多流、自适应梯度融合,显著提升带宽密集的网络模型的训练性能,提速50%~300%。
  • 采用高度优化的在线/离线梯度协商机制,将大规模节点下梯度协商的开销降低一到两个数量级。
  • 采用分级的Allreduce方法,支持FP16梯度压缩及混合精度压缩。
  • 支持Gossip风格梯度压缩技术。
  • 支持Multistep梯度通信优化。
  • 提供针对RDMA/eRDMA网络的深度优化。
  • 提供针对MXNet的API扩展,支持InsightFace类型的数据+模型并行,以及SyncBN Operator增强。
  • 支持GroupComm的分组通信算子,能够快速构建数据+模型并行的复杂通信组合训练。

AIACC-Training(AIACC训练加速)的训练速度与训练成本具有显著优势。更多详细测试数据,请参见Stanford DAWNBench

  1. 典型分布式训练的优化案例如下表所示:

客户

模型

框架

规模(GPU张数)

训练速度提升

某智能芯片厂商

图像分类

MXNet

256

100%

某智能芯片厂商

人脸识别

MXNet

256

200%

某汽车厂商

FaceNet

PyTorch

32

100%

某手机厂商

BERT

TensorFlow

32

30%

某手机厂商

GPT2

PyTorch

32

30%

某人工智能厂商

Faster-RCNN

MXNet、hvd、byteps

128

30%

某人工智能厂商

InsightFace

MXNet、hvd、byteps

128

200%

某在线教育

ESPnet

PyTorch-DP

16

30%

某在线教育

ESPnet2

PyTorch-DDP

16

30%

某在线教育

CTR

PyTorch

32

80%

某在线教育

OCR

PyTorch

32

30%

某手机厂商

图像分类

PyTorch

128

25%

某手机厂商

MAE

PyTorch

32

30%

某研究院

GPT2

PyTorch+Megatron

32

30%

某社交媒体

MMDetection2

PyTorch

32

30%

某金融智能

InsightFace

PyTorch

32

50%

某手机厂商

Detection2

PyTorch

64

25%

某视觉团队

insightface

MXNet

64

50%

某游戏厂商

ResNet

PyTorch

32

30%

某城市大脑

InsightFace

MXNet

16

42%

某制药科技

Autoencoder

PyTorch

32

30%

某自动驾驶

swin-transformer

PyTorch

32

70%

  1. 关于如何安装和使用AIACC-Training(AIACC训练加速),请参见:


四、神龙AI推理加速引擎——AIACC-Inference(AIACC推理加速)

AIACC-Inference(AIACC推理加速)的推理速度与推理成本具有显著优势。更多详细测试数据,请参见Stanford DAWNBench

AIACC-Inference(AIACC推理加速)支持的加速特性:高性能算子加速库会在自研高性能算子和NVIDIA算子中找到最优算子,并生成高性能算子列表供加速引擎进行子图分割和传递。

关于如何安装和使用AIACC-Inference(AIACC推理加速),请参见:


好啦!小弹的分享到此为止。我们更欢迎您分享您对阿里云产品的设想、对功能的建议或者各种吐槽,请扫描提交问卷并获得社区积分或精美礼品一份。https://survey.aliyun.com/apps/zhiliao/P4y44bm_8

【扫码填写上方调研问卷】

欢迎每位来到弹性计算的开发者们来反馈问题哦~

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
4天前
|
人工智能 搜索推荐 Java
【重磅】JeecgBoot 里程碑 v3.8.0 发布,支持 AI 大模型、应用、AI 流程编排和知识库
JeecgBoot 最新推出了一整套 AI 大模型功能,包括 AI 模型管理、AI 应用、知识库、AI 流程编排和 AI 对话助手。这标志着其转型为 “AI 低代码平台”,旨在帮助开发者快速构建和部署个性化 AI 应用,降低开发门槛,提升效率。
44 12
|
7天前
|
人工智能 开发框架 安全
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力,用户只需提交 npx 命令即可“零改造”将开源 MCP Server 部署到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,欢迎你在阿里云百炼和函数计算 FC 上体验 MCP 服务。
111 29
|
12天前
|
人工智能 开发框架 运维
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
Serverless MCP 运行时业界首发,函数计算支持阿里云百炼 MCP 服务!阿里云百炼发布业界首个全生命周期 MCP 服务,无需用户管理资源、开发部署、工程运维等工作,5 分钟即可快速搭建一个连接 MCP 服务的 Agent(智能体)。作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力。
147 0
 Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
|
13天前
|
人工智能 自然语言处理 安全
大企业的AI应用如何更懂业务?
数字经济推动中国经济高质量发展,大型企业数字化转型至关重要。AI技术浪潮下,国资委提出“应用领航、数据赋能、智算筑基”三大方向,深化AI与实体经济融合。CRM系统作为数智化基础设施,连接客户端与业务端,成为企业核心基座。以纷享销客为例,其通过“连接型CRM”打通数据壁垒,提供灵活组织架构配置,满足个性化需求。ShareAI平台赋能营销、销售和服务全链路智能化,确保数据安全并支持私有化部署。选择具备行业积淀和实战经验的CRM服务商,才能让数智化真正驱动业务增长与企业转型。
|
13天前
|
存储 人工智能 监控
一键部署 Dify + MCP Server,高效开发 AI 智能体应用
本文将着重介绍如何通过 SAE 快速搭建 Dify AI 研发平台,依托 Serverless 架构提供全托管、免运维的解决方案,高效开发 AI 智能体应用。
1886 6
|
14天前
|
人工智能 开发框架 搜索推荐
27.4K Star!这个LLM应用宝库让你秒变AI全栈高手,RAG和AI Agent一网打尽!
想要快速入门LLM应用开发?想要了解最新的RAG和AI Agent技术?这个收获27.4K Star的开源项目集合了当下最热门的LLM应用案例,从简单的PDF对话到复杂的多智能体系统应该有尽有。无论你是AI开发新手还是经验丰富的工程师,这里都能找到适合你的项目!
|
15天前
|
存储 人工智能 测试技术
Nacos托管LangChain应用Prompts和配置,助力你的AI助手快速进化
AI 应用开发中,总有一些让人头疼的问题:敏感信息(比如 API-KEY)怎么安全存储?模型参数需要频繁调整怎么办?Prompt 模板改来改去,每次都得重启服务,太麻烦了!别急,今天我们就来聊聊如何用 Nacos 解决这些问题。
|
16天前
|
机器学习/深度学习 编解码 人工智能
计算机视觉五大技术——深度学习在图像处理中的应用
深度学习利用多层神经网络实现人工智能,计算机视觉是其重要应用之一。图像分类通过卷积神经网络(CNN)判断图片类别,如“猫”或“狗”。目标检测不仅识别物体,还确定其位置,R-CNN系列模型逐步优化检测速度与精度。语义分割对图像每个像素分类,FCN开创像素级分类范式,DeepLab等进一步提升细节表现。实例分割结合目标检测与语义分割,Mask R-CNN实现精准实例区分。关键点检测用于人体姿态估计、人脸特征识别等,OpenPose和HRNet等技术推动该领域发展。这些方法在效率与准确性上不断进步,广泛应用于实际场景。
229 64
计算机视觉五大技术——深度学习在图像处理中的应用
|
19天前
|
人工智能 数据可视化 API
开箱即用的可视化AI应用编排工具 Langflow,可调用魔搭免费API作为tool
ModelScope 社区基于优秀的开源可视化AI应用编排工具 Langflow 搭建了创空间,以方便社区开发者基于社区开源模型及免费魔搭 API-Inference,快速创建Agent应用、RAG应用并将其部署为API服务。
167 14
|
20天前
|
数据采集 人工智能 自动驾驶
AI大模型都有的“幻觉病”,企业AI应用创新路上须警惕
法思诺创新提醒:AI大模型虽强大,但其“幻觉病”不容忽视。文章剖析了AI生成错误信息的现象及其成因,包括数据质量问题、缺乏常识理解及追求流畅度的倾向,并警示企业在医疗、法律、金融等关键领域应用AI时需警惕潜在风险。为应对挑战,应通过技术改进、人机协同和伦理规范三重手段约束AI行为,同时强调企业应以人为主导,将AI作为辅助工具,在享受技术便利的同时有效控制风险。