吉利汽车携手阿里云函数计算,打造新一代 AI 座舱推理引擎

简介: 当前吉利汽车研究院人工智能团队承担了吉利汽车座舱 AI 智能化的方案建设,在和阿里云的合作中,基于星睿智算中心 2.0 的 23.5EFLOPS 强大算力,构建 AI 混合云架构,面向百万级用户的实时推理计算引入阿里云函数计算的 Serverless GPU 算力集群,共同为智能座舱的交互和娱乐功能提供大模型推理业务服务,涵盖的场景如针对模糊指令的复杂意图解析、文生图、情感 TTS 等。

作者:蒋忠林、赵剑、谢东、洛浩、周华生


吉利汽车,是中国知名的自主汽车品牌,近年来通过技术创新和产品升级,在国内外市场取得了显著成绩。随着 AI 浪潮的发展,吉利汽车也在不断加强智能化的建设,尤其在新一代 AI 座舱的建设上,成为汽车主机厂的核心竞争力之一。当前吉利汽车研究院人工智能团队承担了吉利汽车座舱 AI 智能化的方案建设,在和阿里云的合作中,基于星睿智算中心 2.0 的 23.5EFLOPS 强大算力,构建 AI 混合云架构,面向百万级用户的实时推理计算引入阿里云函数计算的 Serverless GPU 算力集群,共同为智能座舱的交互和娱乐功能提供大模型推理业务服务,涵盖的场景如针对模糊指令的复杂意图解析、文生图、情感 TTS 等。


尤其是在语音交互方面,吉利自研超拟人 TTS,采用大量微调和训练,打造出了吉利汽车专属的逼真、富有情感、自然生动又稳定一致的语音交互体验。随着功能的持续迭代,接入的车辆也越来越多,推理引擎的端到端高可用建设也变得越来越重要,吉利汽车研究院和阿里云等合作伙伴不断深入探索,共同为吉利汽车的新一代 AI 座舱打造大规模、高可用、高性能的推理引擎服务。

1761288422205_F9087F54-5865-4f3d-819D-9F819FDB4753.png


需求及挑战


为了应对日益竞争激烈的市场环境,吉利汽车研究院牵头打造吉利汽车新一代的 AI 座舱平台,需要具备:


  1. 百万辆车接入:推理引擎需要具备大规模系统承载能力、扩展能力、高可用、以及故障逃逸能力。
  2. 面对 C 端场景,为了较好的用户体验:座舱服务的推理引擎需要能针对不同场景,提供良好的推理效果,包含模型能力建设,以及工程化提供高性能、低延迟的链路建设。
  3. 端到端的可观测能力建设。
  4. 针对模型推理的安全建设。


落地场景


吉利汽车研究院携手阿里云团队及合作伙伴打造的吉利汽车全新一代 AI 座舱推理服务已经在今年 6 月份上车,刚刚上市的吉利银河 M9 车型进行深度搭载。接下来在导航、车控两大场景的推理服务上,以及情感 TTS 和文生图(娱乐)两大场景的复杂计算上做介绍。

382dfbbd107cc71cd200782721858e26.png

DeepThink:模糊指令的复杂意图推理

DeepThink 是吉利汽车在银河 M9 上推出的新一代超拟人智能体 Eva 的深思决控能力,这个能力使 Eva 不仅可以聊天交互,而且可以规划和拆解任务、调用工具等。超拟人智能体 Eva 可以在用户出行场景中像人一样帮你解决问题。


导航作为出行中最重要的使用场景之一。在过往的使用上,用户需要准确的输入目的地、途经点。而此次吉利汽车研究院携手阿里云等合作伙伴,通过大模型调教,让地图交互更加智能。只需要说出模糊的目的地描述,通过大模型推理即可识别准确的目的地。如:“我的女朋友在上海外滩,现在帮我在中间位置找一家餐厅然后导航过去。”当语音指令被接收到后,大模型会进行意图理解和复杂计算,对任务进行识别、规划和拆解。第一步识别出该指令为导航域需求;第二步通过计算找到本车辆定位位置和上海外滩中间的位置;第三步,通过智能体记忆能力获取我曾经提到过的“女朋友的”饮食偏好;第四步,在“中间位置”周边找到符合“女朋友”饮食偏好的餐厅;第五步,拉起导航,设置该餐厅为目的地,并规划最合适路线。同时对用户进行语音回复。


在地图导航中,如果用户需要添加途经点,也可以通过简单的描述进行检索添加,比如“帮我在途中找个给孩子买玩具的地方”“我要买花,给我找个地方”“我要上厕所,帮我找一下哪里可以?”,过往在车辆行驶当中,添加途经点对用户来讲,操作是比较不方便的,现在通过大模型调教就简单多了,用户不需要明确的输入途经点名称,只需要说出需求即可快速达成目的。


车控是用户最常和最多在车上使用的,通过吉利新一代 AI 座舱推理引擎,大大提升了用户对车控使用的便捷性。比如用户说:“我的腰有点酸” ,大模型可推理出需要打开座椅按摩,并开启腰部舒展。用户接着说:“给副驾也安排上”。大模型马上通过上下文理解,知道说的还是“开启座椅按摩并调到腰部舒展”这件事,并且马上在副驾执行。当车辆行驶到高速收费站人工缴费通道时,大模型通过 VLM 识别,并进行复杂路况结算和意图识别后,车窗自动降下。这些更加人性化的交互执行和主动智能,让用户无论是开车的成年人,还是坐车的老人、小孩都能通过口语化的表达,轻松的安全控车。


TTS 语音交互

近年来,大模型参数规模和模型性能不断创出新高,加速推进人工智能实用化、通用化和普惠化发展。大模型技术为语音服务带来了革命性的升级,基于大模型的语音识别和语音合成能力,为用户提供更为精准、高效的服务体验。


为了向车机用户提供逼真、富有情感、自然生动又稳定一致的语音交互体验,提升车机系统的竞争力,满足用户对于个性化和情感化服务的期望,同时支持针对不同车型品牌和用户的深度定制需求;吉利自研基于大语言模型基座的语音合成大模型,构建了海量的预训练数据集,并投入资源制作了数万小时的高质量、精标注 SFT(指令微调)数据,获得了稳定、自然的音色和合成效果。模型针对复杂数字符号设计了文本归一化模块,覆盖了日期、比例、特殊英文单位等高频复杂场景;对多音字、变音字、中英文混读、副语言表达等复杂场景进行了针对性的优化,并在多次反复迭代后获得了较为稳定自然的表达效果。在自然与正确的表达基础之上,还针对车载场景适配了包含兴奋、有趣、共情等多情感的表达能力以及针对儿童播报场景的儿童友好风格,实现了生动、多变的表现力。并且今年 6 月,吉利汽车参与中国信通院组织的可信 AI 中文语音合成基础服务评估,其产品吉利星睿超写实情感语音合成大模型顺利通过中文语音合成基础服务评估。


为了给用户带来高效、实时的对话体验,TTS 语音推理服务经过极致优化,端到端链路延迟控制在 100ms 以内,首包 TTFT 控制在 400ms 左右。在弱网或无网状态下,通过汽车本地芯片算力计算,吉利自研离线超写实语音合成模型,为用户提供全场景下的文本转语音超自然语音播报。在汽车芯片模型部署加速侧,吉利汽车人工智能团队与阿里巴巴淘系技术开源的深度学习框架 MNN 团队深度合作,解决了不同规格芯片场景下,低功耗、低延迟、高性能离线超写实语音合成模型推理(MNN 是阿里巴巴淘系技术开源的深度学习引擎,支持了阿里巴巴 70+ 场景下的 AI 应用)。随着应用规模的扩大,吉利汽车研究院和阿里云的函数计算研发团队也会继续从算法和工程化两个维度继续优化并发性能。

1761288506303_DBBA7572-DB4E-4c0c-8AE7-1125C59B9B87.png

AIGC 生图

为了给车机系统增加更好的交互体验,吉利汽车研究院在车端打造了全场景 AI Agent,其中 AI 灵感画师为座舱的使用增加了不少的趣味性。以 AI 灵感画师为例,是基于 ComfyUI 进行深度定制设计的工作流,包含壁纸图生图、奇幻相机、AI 儿童乐园-萌宝穿越、AI 写真、壁纸泡泡广场等多种生图场景。同时,针对不同的场景,为了保障生图效果,还做了大量的 Lora 训练和自定义节点,比如生图的风格、分辨率保障等。不同场景的生图工作流,分别由不同的函数承载,避免切换模型带来的生图 latency 抖动,任务调度延迟控制在 300ms 以内,单次生图约为8~10s。另外在函数启动的时候,通过模型预热,可以保障在工作流更新的时候对用户的体验也是无损的。


为了提升出图的速度,函数计算侧协助研究院一起验证并部署了基于 ComfyUI 的模型推理加速方案,采用 DeepGPU + Teacash 方案,整体的出图速度提升了50% 以上,并且是无损的效果。

1761288532623_4EAAE6BC-FD28-40c3-9B2F-EB4B3A307D5B.png


落地方案及效果


端到端 AI 应用高可用建设需求

为了保障大规模的生产车辆接入和用户的极致使用体验,座舱推理引擎服务对工程化也提出了极高的要求:

  1. 高可用
  1. 模型请求怎么高可靠接入
  2. 推理服务怎么做到高可靠
  3. 故障恢复策略
  1. 高性能(GPU 利用率提升,QPS 提升,降低延迟)
  1. 使用 FC 如何做到冷启动低延迟和模型预热
  2. 如何实现推理请求的批量执行
  3. PD 分离与推理缓存
  1. 端到端的可观测和告警机制(及时发现、及时处理)等


基于函数计算的落地方案

阿里云基于函数计算 FC 协助吉利汽车研究院一起搭建座舱 AI 推理统一平台,提供面向 Serverless 化、高可用、高性能和低时延的算力集群。同时阿里云协助吉利汽车一起梳理优化座舱服务的全链路稳定性建设、模型工程化优化、模型推理高可用、模型推理加速等。


函数计算是阿里云推出的 FaaS 服务平台,是典型的 Serverless 计算产品。Serverless 的技术理念可以总结为:Zero Server Ops(无需关注和维护服务器等基础设施,具备自动弹性伸缩能力) + No Compute Cost When Idle。Serverless 技术可以让企业和开发者更加专注业务,把更多的精力用在业务创新和业务迭代上,而云厂商来管理资源的维护工作,并提供资源的弹性伸缩能力、稳定性、以及按实际使用进行付费的能力。除此之外,借助 Serverless 的弹性和按量付费能力,在很大程度上还可以提升资源利用率,进而节省用云的资源成本,而云厂商通过提供标准化的运行环境和联动上下游产品的集成生态,可以最大程度上降低用云的门槛和成本。


基于函数计算和 AI 网关、以及可观测能力打造的 AI 原生应用架构,具备端到端的高可用、高性价比算力供给等特点:


  • 按量快照技术:函数计算提供按量快照技术,支持 24小时*30 天预留 GPU 卡使用,避免弹卡风险。在 GPU 卡没有请求的时候,会转为闲置状态费用降低为正常的 20% 左右(只计收内存和显存状态费用),极大降低了 GPU 的使用成本。
  • 一站式集成平台:函数计算有别于裸机,会提供全托管的容器实例,支持标准镜像部署,内置资源调度、请求级别负载均衡、请求级别监控、日志等能力,无需预购和维护虚拟机节点、集群升级等。业务方可以聚焦关注代码逻辑,同时运维打通 CICD、配置监控大盘、做好权限管理、告警管理、函数管理等即可稳定使用。
  • 模型优雅上下线:函数计算支持模型预热、优雅轮转、滚动重启等能力机制,确保变更发布时的请求无损。
  • 端到端高可用建设:函数计算平台在主流 Region 从接入层到调度层、算力层、网络层,均提供至少 3AZ 的高可用能力建设,推理服务的入口具备全局可用性,能够跨多个可用区分发流量,并能从后端故障中自动恢复。搭配端到端的 Trace 能力,能够快速定位和解决问题。

1761288592904_439C37E0-B1E9-41a1-9CFE-C4758C8FE640.png

基于函数计算的方案落地效果

  • 算力成本优化 33%:基于推理业务的 C 端属性,FC 的按量快照使用模式在保障用户使用体验不变的情况下,相比 IaaS 资源供给,成本优化高达 33%。
  • 算力集群简化维护:基于 Serverless 技术,提供“拎包入住”的使用体验,极大释放了运维侧的资源维护压力,由阿里云 FC 团队保障算力集群的高可用和 GPU 算力的稳定供给,吉利汽车研究院的业务方专注模型服务,运维方专注业务高可用建设。
  • 端到端高可用 SLA 99.99%(持续建设中):借鉴云原生应用的高可用建设经验,吉利汽车和阿里云等合作伙伴一起推动 AI 推理引擎的端到端应用观测、Trace 追踪、灰度发布、SRE 保障机制、大规模集群高可用建设等,支持百万车辆的稳定接入能力。


函数计算——打造 AI 应用时代最佳的运行时

随着 Agent 的持续爆火,AI 应用落地呈现加速的趋势,MCP 让大模型可以更加标准的感知外部世界,极大扩展了大模型的能力。函数计算除了托管模型推理服务之外,还推出了 AI Studio 运行工作流、Sandbox 做强化学习和代码沙箱环境、MCP Runtime 运行 MCP 服务等。至此,在函数计算上可以构建出完整的端到端 AI 应用,支持用户打造出全新的 AI 应用架构。

1761288623773_73B282DE-86B7-41ff-948E-634B8E716E51.png


结语


吉利汽车研究院与阿里云携手,不仅为用户带来了前所未有的智能座舱体验,也为整个汽车行业树立了新的标杆。未来,双方将继续深化合作,探索更多 AI 应用场景,推动智能出行的创新发展。

相关实践学习
【AI破次元壁合照】少年白马醉春风,函数计算一键部署AI绘画平台
本次实验基于阿里云函数计算产品能力开发AI绘画平台,可让您实现“破次元壁”与角色合照,为角色换背景效果,用AI绘图技术绘出属于自己的少年江湖。
从 0 入门函数计算
在函数计算的架构中,开发者只需要编写业务代码,并监控业务运行情况就可以了。这将开发者从繁重的运维工作中解放出来,将精力投入到更有意义的开发任务上。
相关文章
|
4月前
|
人工智能 文字识别 监控
|
4月前
|
云安全 人工智能 安全
Dify平台集成阿里云AI安全护栏,构建AI Runtime安全防线
阿里云 AI 安全护栏加入Dify平台,打造可信赖的 AI
3039 166
|
4月前
|
人工智能 vr&ar UED
获奖公布|第十九届"挑战杯"竞赛2025年度中国青年科技创新"揭榜挂帅"擂台赛阿里云“AI技术助力乡村振兴”专题赛拟授奖名单公示
获奖公布|第十九届"挑战杯"竞赛2025年度中国青年科技创新"揭榜挂帅"擂台赛阿里云“AI技术助力乡村振兴”专题赛拟授奖名单公示
|
4月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
582 30
|
4月前
|
人工智能 运维 安全
加速智能体开发:从 Serverless 运行时到 Serverless AI 运行时
在云计算与人工智能深度融合的背景下,Serverless 技术作为云原生架构的集大成者,正加速向 AI 原生架构演进。阿里云函数计算(FC)率先提出并实践“Serverless AI 运行时”概念,通过技术创新与生态联动,为智能体(Agent)开发提供高效、安全、低成本的基础设施支持。本文从技术演进路径、核心能力及未来展望三方面解析 Serverless AI 的突破性价值。
|
4月前
|
机器学习/深度学习 人工智能 算法
阿里云视频云以 360° 实时回放技术支撑 NBA 2025 中国赛 —— AI 开启“智能观赛”新体验
NBA中国与阿里云达成合作,首发360°实时回放技术,融合AI视觉引擎,实现多视角、低延时、沉浸式观赛新体验,重新定义体育赛事观看方式。
705 0
阿里云视频云以 360° 实时回放技术支撑 NBA 2025 中国赛 —— AI 开启“智能观赛”新体验
|
4月前
|
存储 人工智能 OLAP
AI Agent越用越笨?阿里云AnalyticDB「AI上下文工程」一招破解!
AI上下文工程是优化大模型交互的系统化框架,通过管理指令、记忆、知识库等上下文要素,解决信息缺失、长度溢出与上下文失效等问题。依托AnalyticDB等技术,实现上下文的采集、存储、组装与调度,提升AI Agent的准确性与协同效率,助力企业构建高效、稳定的智能应用。
|
4月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
996 51
|
5月前
|
人工智能 安全 中间件
阿里云 AI 中间件重磅发布,打通 AI 应用落地“最后一公里”
9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScope-Java(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。
1158 53

热门文章

最新文章

相关产品

  • 函数计算