训练时间可缩短50%!阿里云推出自动驾驶模型加速框架

简介: 阿里云推出PAI-TurboX框架,专为自动驾驶领域模型训练与推理加速设计,可提升感知、规划控制及世界模型效率,缩短训练时间50%以上,并已广泛应用于多家车企。

今天,阿里云正式推出面向自动驾驶领域模型的训练、推理加速框架PAI-TurboX。

该框架可提升感知、规划控制乃至世界模型的训推效率,在多个行业模型的训练任务中,PAI-TurboX均可缩短50%的时间。

PAI-TurboX框架,可用于多模态数据预处理、离线大规模模型训练以及实时智驾推理等环节,可为自动驾驶、具身智能等领域提供全面解决方案,目前已应用于多家车企。

在系统侧,PAI-TurboX通过优化CPU亲和性、动态编译、流水线并行等策略,显著提升模型的训练推理效率

在数据侧,PAI-TurboX提出了高性能的DataLoader引擎,并且优化了数据预处理流程和实现了智能训练样本分组,有效提升数据处理效率

此外,PAI-TurboX还提供了算子优化和量化等能力,可进一步减少训练阶段的访存延迟,提升吞吐效率,同时在推理任务中,能在保障精度的同时降低计算开销与内存带宽需求,可实现异构平台下的高性能推理部署。

实测结果显示:

  • 在自动驾驶的3D物体检测模型BEVFusion训练任务中,PAI-TurboX可以将训练时间缩短58.5%

  • 在实时在线矢量化高精地图构建模型MapTR训练任务中,PAI-TurboX可以将训练时间缩短53%

  • 在端到端自动驾驶模型SparseDrive训练任务中,PAI-TurboX 可以在感知模块训练和联合训练两个阶段获得明显的速度提升,相同训练步数下两个阶段可分别缩短51.5%和48.5%

阿里云人工智能平台PAI可提供贯穿AI开发和运维全流程的平台服务。自2016年诞生以来,PAI已累计服务超过10万家企业客户及数百万AI开发者,支撑阿里云百炼、魔搭社区等MaaS服务及社区。



来源  |  阿里云公众号

相关文章
PAI-TurboX:面向自动驾驶的训练推理加速框架
PAI-TurboX 为自动驾驶场景中的复杂数据预处理、离线大规模模型训练和实时智能驾驶推理,提供了全方位的加速解决方案。PAI-Notebook Gallery 提供PAI-TurboX 一键启动的 Notebook 最佳实践
Kubernetes Scheduler Framework 扩展: 1. Coscheduling
# 前言 ## 为什么Kubernetes需要Coscheduling功能? Kubernetes目前已经广泛的应用于在线服务编排,为了提升集群的的利用率和运行效率,我们希望将Kubernetes作为一个统一的管理平台来管理在线服务和离线作业。但是默认的调度器是以Pod为调度单元进行依次调度,不会考虑Pod之间的相互关系。但是很多数据计算类的作业具有All-or-Nothing特点,要求所有的
3273 0
自建 DeepSeek 时代已来,联网搜索如何高效实现
随着 DeepSeek 等高质量开源大模型的涌现,企业自建智能问答系统的成本已降低 90% 以上。基于 7B/13B 参数量的模型在常规 GPU 服务器上即可获得商业级响应效果,配合 Higress 开源 AI 网关的增强能力,开发者可快速构建具备实时联网搜索能力的智能问答系统。
694 77
|
1月前
|
接入通义千问3后,B站618期间商单成交效率提升5倍+
B站引入通义千问Qwen3、Qwen-VL等模型打造智能体InsightAgent,助力商业平台“花火”与“必达”提效。花火AI选人功能实现商单成交效率提升5倍以上,必达平台数据洞察效率提升3倍以上,大幅优化品牌合作流程。
43 0
接入通义千问3后,B站618期间商单成交效率提升5倍+
Function AI 工作流发布:以 AI 重塑企业流程自动化
本文介绍了基于函数计算 FC 打造的全新 Function AI 工作流服务,该服务结合 AI 技术与流程自动化,实现从传统流程自动化到智能流程自动化的跨越。文章通过内容营销素材生成、内容安全审核和泛企业 VOC 挖掘三个具体场景,展示了 Function AI 工作流的设计、配置及调试过程,并对比了其与传统流程的优势。Function AI 工作流具备可视化、智能性和可扩展性,成为企业智能化转型的重要基础设施,助力企业提升效率、降低成本并增强敏捷响应能力。
422 28
Spring AI 实战|Spring AI入门之DeepSeek调用
本文介绍了Spring AI框架如何帮助Java开发者轻松集成和使用大模型API。文章从Spring AI的初探开始,探讨了其核心能力及应用场景,包括手动与自动发起请求、流式响应实现打字机效果,以及兼容不同AI服务(如DeepSeek、通义千问)的方法。同时,还详细讲解了如何在生产环境中添加监控以优化性能和成本管理。通过Spring AI,开发者可以简化大模型调用流程,降低复杂度,为企业智能应用开发提供强大支持。最后,文章展望了Spring AI在未来AI时代的重要作用,鼓励开发者积极拥抱这一技术变革。
893 71
Spring AI 实战|Spring AI入门之DeepSeek调用
AI IDE正式上线!通义灵码开箱即用
作为AI原生的开发环境工具,通义灵码AI IDE深度适配了最新的千问3大模型,并全面集成通义灵码插件能力,具备编程智能体、行间建议预测、行间会话等功能。
522 13
这几类运维难题,看阿里云操作系统控制台如何一站式破解
阿里云操作系统控制台给云计算和容器化运维带来新的可能,能够提高系统性能与运维效率,同时为企业减少了系统相关问题带来的困扰。
自媒体创作场景实践|通义千问3 + MCP=一切皆有可能
本文介绍了通过MCP(Model Context Protocol)结合通义千问大模型实现跨平台、跨服务的自动化任务处理方案。使用Qwen3-235B-A22B模型,配合ComfyUI生成图像,并通过小红书等社交媒体发布内容,展示了如何打破AI云服务的数据孤岛。具体实践包括接入FileSystem、ComfyUI和第三方媒体Server,完成从本地文件读取到生成图像再到发布的全流程。 方案优势在于高可扩展性和易用性,但也存在大模型智能化不足、MCP Server开发难度较大及安全风险等问题。未来需进一步提升模型能力、丰富应用场景并解决安全挑战,推动MCP在更多领域落地。
788 27
自媒体创作场景实践|通义千问3 + MCP=一切皆有可能
MCP for 可观测2.0,6个让MCP开发更高效的小妙招
可观测近年来已经成为一个关键概念,它不仅仅局限于监控,还包括了日志记录、指标收集、分布式追踪等技术手段,旨在帮助团队更好地理解系统运行状况、快速定位问题以及优化性能。可观测2.0融合 MCP,可以让用户更好地感知系统、分析问题——用自然语言开启与系统的对话!本文将分享6个设计 MCP Server 的亲身实践,帮助大家更好地融合与使用。
684 89
MCP for 可观测2.0,6个让MCP开发更高效的小妙招
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等

登录插画

登录以查看您的控制台资源

管理云资源
状态一览
快捷访问