AI战略丨物流 AI 新变化,用大模型定义

简介: 物流企业在大模型上纷纷主动探索,也在推动物流行业实现智能化加速。

uiqpush4khazq_c5f942152c38494b916a1fb38c943ee1.jpg

过去一段时间里,一场有关大模型技术相关的思考与探索开始在物流行业上演:从以“三通一达” 为代表的头部快递企业,到提供技术服务的数字平台如 G7 易流,以及覆盖海陆空的交通运输企业、客运企业、国央企,他们的 IT 信息负责人、CTO、CIO,有的在大模型与小模型间取舍,有的正推进大模型商业化,有的已朝着垂直场景大模型做迭代创新。

根据中商产业研究院发布的《2024-2029 年中国物流行业市场发展现状及潜力分析研究报告》,2023 年全国社会物流总额为 352.4 万亿元,同比增长 5.2%。预计 2024 年全国社会物流总额将增长至 367.5 万亿元。中国物流体系在政策支持和市场需求恢复的双重驱动下,正朝着高效、智能、绿色方向发展。

尽管物流行业主要是运人和载货,但其本质仍然是对供应链上下游的激活。同时,因其场景和供需关系多元化,这意味着包括 AI 技术在内,任何先进技术对物流行业的渗透和影响,都逃脱不开对整个供应链运营和服务效率的持续提升。

在这一逻辑下,最直接支撑企业产品商业化和业务运转的 IT 信息技术团队,在探索大模型落地时首先要考虑的不是炫技式的生成式人工智能(GenAI)应用,而是能不能在有限的成本预算、现实生产条件下实现对大模型的快速落地;能不能在快速变化的大模型技术中,结合未来业务 / 产品发展对新大模型的采用与投入有个较 为全面的预判;以及更加关注用户,审视大模型还将带来什么变化......与之伴随的是对场景评判、模型选择、工程调优、成本与商业化等多方面的考量。

优先落地场景

面对大模型技术的火热,第一要务不是盲目上技术,而是要有优先级的认知。大模型应用是个系统性工程,究竟是防御性还是进攻性,带来的探索结果将完全不同。从业内人士的分享来看,相较于降本,物流企业也有很多探索增效、增利的场景。

比如,在今年过年前,G7 易流在特定用户群范围内,在上游和下游对接环节上应用了“智能接单”技术。G7 易流首席科学家王守崑透露,这个小范围测试的识别准确率达到了 100%,“已经超过了我们的预期”。

物流中信息流的核心,就是预订单和订单,而不同物流企业的订单格式、规则非常复杂,使用传统小模型技术能够解决这些问题,但是沟通成本、研发成本等都很高。

应用大模型技术的“智能接单”,在某些环节下能提升10倍的效率,和传统小模型相比得到了一个质的提升。同时,传统小模型只能适应一个单一的产品,但运用了大模型的“智能接单”,适用的场景非常多。

王守崑认为,在行业上、在应用上面还有不少突破点,企业也需要依托比较大的基础设施,包括像阿里云这样的基础设施去进行大模型的落地。

总结起来,物流行业有属于自身优先级的三类大模型落地场景。

一是营销场景,AI 生成文章、图片用于营销场景,这在王守崑看来,也是最成熟、质量相对有保证的场景。二是客服场景,可应用于发货、运维、报修、查询等场景,如用文本生成 SQL 去做订单查询。三是 AI Copilot 助理类场景,例如 G7 易流上线的物流接单助手;还有安全小助手,也可提醒司机、安全员关注驾驶风险,挖掘风险事件背后的潜在因素。

王守崑更感兴趣的是基础模型最终能到什么程度,因为这决定了 G7 易流是跟着基础大模型走,还是要痛下决心自己搞个小一点的大模型?这点目前还没有特别明确的答案。他认为基础大模型的能力会更强一些,但从应用上来看专门精调的小模型在某些特定场景表现更好。

阿里云交通物流行业解决方案总经理娄恒了解到的情况是,目前物流行业的业务流程都围绕着人来设计,提效方向要么是提高人员服务能力,要么是防范人错误操作。AI 有望全面重塑一半以上的业务流程,减少人员错误操作给业务流程带来类似“收费站”的降速作用,从“辅助驾驶”进化到“自动驾驶”。

探索“物流 + 大模型”的最佳姿态

具体到模型的选择上,物流企业往往会从厂商信赖感、模型服务、数据安全等多方面考量。首先,国产基础大模型占最高优先级。同时,企业选择不同的模型来解决实际业务问题,会对大模型进行基准测试,即评估模型在不同任务上的表现。例如,用户会问什么问题,大模型给出的回答跟规划的答案是否一致等,然后通过一些性能指标如召回率、准确率进行记录。

货拉拉 CTO 张浩不久前阐述其大模型研发理念,即轻量化和场景化,“不贵大而贵精,在具体需求上追求极致,实现功能最大化。”

例如在车货匹配场景中,存在车货非标、车型多样等特征,导致模型训练更加复杂。再者,货运涉及订单、货物、车辆、驾驶员、路线等方面数据,数据种类、形态多,且由于货物和车辆位置实时变化,牵涉数据量庞大,所以货运数据的收集、整合和处理也变得更加复杂。

早在 2020 年,货拉拉技术团队便已经基于 AI、大数据等技术打造了智慧大脑中台系统,奠定了货拉拉的 AI 底层技术基础,有利于货拉拉技术团队进一步深耕 AI 技术,研发货运无忧大模型。同时,货拉拉平台拥有高质量的海量本地货运数据,有利于构建更专业的行业知识库,为货运无忧大模型提供强大的数据支撑。目前,货拉拉在客服 / 邀约、办公招聘、车货匹配、违禁品识别等业务场景中均持续探索,其自研的货运无忧大模型,官方显示, 在货运事实性问答测评中的准确率超过 90%。

此外,也有货运企业提出调度场景的大模型解决方案,已经在多家物流企业去验证和产品打磨,并且通过收集测试反馈,进一步进行商业化试点。

物流企业在大模型上纷纷主动探索,也在推动物流行业实现智能化加速。

大规模商用化,任重道远

然而,在优化和使用大模型方面,仍然存在许多待解决的现实挑战。

首先是模型推理带来的算力成本问题。且不论基础大模型的训练所需耗费的巨大算力,在实际生产环境下的模型推理成本仍然较高。

申通 CTO 赵柏敏指出,大模型在快递行业的应用会面临几个无法回避的挑战。

其一,成本问题。经济型快递的业务场景面向海量包裹,且对成本极为敏感。当前,大模型推理所需的 GPU 计算资源以及能耗等成本因素,制约了大模型在部分场景的落地。

其二,模型幻觉。大模型虽具备很强的泛化能力,但也带来了幻觉问题。虽然我们能够通过检索增强生成(Retrieval Augmented Generation,RAG) 在一定程度上解决这一问题,不过通常调优周期较长。大模型在一些确定性问题的处理上,准确率往往不及垂直领域模型。例如,在对地址进行分类和相似度比较时,大模型虽能给出可接受的结果,但实际测试效果不如地理模型。

其三,不具备复杂逻辑推理能力。大模型有所偏科,语文出色、数学欠佳,目前尚不具备参加高难度奥数比赛的能力。在快递领域,许多技术问题属于较难的数学问题,比如路由规划。

其四,推理响应时间长。同一系列的大模型,一般来说参数规模越大输出质量会越好,但响应时长也会增加,比如客服智能问答等直接交互场景。企业需要结合与用户体验与输出内容质量要求综合考虑,选择合适的模型。

尽管存在诸多挑战,但赵柏敏认为大模型在快递行业仍能发挥重大作用,诸如客服机器人、客服工单的 Copilot、ChatBI 、知识问答以及 Code Copilot(通 义灵码)等领域。在他看来,大模型进步速度非常迅速,相信在不远的将来,上述的挑战都将逐一被攻克。

一家大型运输集团对大模型的幻觉问题也给出了明确看法:物流行业拥有行业独特的知识,如果用专业的行业问题跟大模型互动,它的回答可能都是有道理的,但是没用,指导不了生产和工作。

为此,一些物流企业的思路是:构建行业大模型,基于基础大模型微调。从行业大模型内测表现来看,对物流领域专业问题的辅助和解答明显更为专业,泛化能力也会得到加强。

不过,这类方式通常考验计算资源和成本:微调过程需要消耗一定的计算资源,且参数调整存在难度,找到最优的参数复杂且耗时;同时,微调存在过拟合风险,如果数据量太少或过度调整,也会导致大模型的泛化能力下降。

而在某些特定场景,传统的小模型表现反而会更好。例如在调度场景,已经有不少企业在利用运筹求解与传统的机器学习或者深度学习模型结合,解决模型训练的问题。

中通快递 CTO 杨文指出,在路由规划等物流行业专业的需求领域,传统的运筹规划等方法更有效。在此之前,中通技术部门面临着一个可能是大部分物流企业产研团队都会遇到的诉求——报表治理。为此,中通选择了用传统的方法做归因分析,再加上大模型的方式简化报表。

根据中通的实践,在客服场景,尽管大模型的体验更好,但成本也更高,在一些特定任务中,NER(Named Entity Recognition,命名实体识别)等小模型基本也能满足需求。

结合当前物流企业的大模型探索,不难发现,企业一开始上手大模型,首先考虑的更多是大模型选型、数据安全、训练或推理成本、底层生态支持等问题,但在实操时发现,首先要解决的还是大模型的准确性,尤其是能结合生产场景中的模型能力。

云上大模型,围绕 AI 算力布局

目前提供基础大模型服务的云厂商,其模型训练和推理服务几乎都是在云上完成。如果物流企业希望聚焦在业务场景的落地,不想花巨额成本和时间训练基础模型,可采用成熟的基础模型服务或开源模型 + 云算力的方式实现部署,通过大模型工具链快速完成 RAG、提示词工程,实现大模型应用的快速落地。

但另一方面,需要注意的是,物流不仅仅是快递企业,物流还包括运输、城际间的运输、货运、集装箱运输,相较于已经几乎全量上云的三通一达等快递业务,还有大量的物流场景需还需要通过云上支撑,进而缩短 AI 应用落地的路径。

时代的变化让云计算产业也在发生变化。GenAI 的杀手级应用崛起,大模型需要集中资源训练任务。未来,云计算将由 CPU 为基础的服务器构建的通用算力,切换成 GPU 算力为主。

正因为如此,云计算,也成为大模型发展的重要底座,为物流企业用好大模型,快速实现 AI 技术与业务的结合落地提供了便利性。而随着云服务成本的进一步降低,将有利于企业尤其是中小企业,使用公共云快速拉起庞大的训练和推理资源,从而低成本实现 AI 创新。

相关文章
|
20天前
|
人工智能 并行计算 安全
从零到一,打造专属AI王国!大模型私有化部署全攻略,手把手教你搭建、优化与安全设置
【10月更文挑战第24天】本文详细介绍从零开始的大模型私有化部署流程,涵盖需求分析、环境搭建、模型准备、模型部署、性能优化和安全设置六个关键步骤,并提供相应的示例代码,确保企业能够高效、安全地将大型AI模型部署在本地或私有云上。
176 7
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
当前AI大模型在软件开发中的创新应用与挑战
2024年,AI大模型在软件开发领域的应用正重塑传统流程,从自动化编码、智能协作到代码审查和测试,显著提升了开发效率和代码质量。然而,技术挑战、伦理安全及模型可解释性等问题仍需解决。未来,AI将继续推动软件开发向更高效、智能化方向发展。
|
7天前
|
人工智能 自然语言处理 机器人
文档智能与RAG技术如何提升AI大模型的业务理解能力
随着人工智能的发展,AI大模型在自然语言处理中的应用日益广泛。文档智能和检索增强生成(RAG)技术的兴起,为模型更好地理解和适应特定业务场景提供了新方案。文档智能通过自动化提取和分析非结构化文档中的信息,提高工作效率和准确性。RAG结合检索机制和生成模型,利用外部知识库提高生成内容的相关性和准确性。两者的结合进一步增强了AI大模型的业务理解能力,助力企业数字化转型。
39 3
|
16天前
|
人工智能 JSON API
阿里云文档智能 & RAG解决方案:提升AI大模型业务理解与应用
阿里云推出的文档智能 & RAG解决方案,旨在通过先进的文档解析技术和检索增强生成(RAG)方法,显著提升人工智能大模型在业务场景中的应用效果。该方案通过文档智能(Document Mind)技术将非结构化文档内容转换为结构化数据,提取文档的层级树、样式和版面信息,并输出为Markdown和Json格式,为RAG提供语义分块策略。这一过程不仅解决了文档内容解析错误和切块丢失语义信息的问题,还优化了输出LLM友好的Markdown信息。方案的优势在于其多格式支持能力,能够处理包括Office文档、PDF、Html、图片在内的主流文件类型,返回文档的样式、版面信息和层级树结构。
75 2
|
9天前
|
人工智能 弹性计算 Serverless
触手可及,函数计算玩转 AI 大模型 | 简单几步,轻松实现AI绘图
本文介绍了零售业中“人—货—场”三要素的变化,指出传统营销方式已难以吸引消费者。现代消费者更注重个性化体验,因此需要提供超出预期的内容。文章还介绍了阿里云基于函数计算的AI大模型,特别是Stable Diffusion WebUI,帮助非专业人士轻松制作高质量的促销海报。通过详细的部署步骤和实践经验,展示了该方案在实际生产环境中的应用价值。
41 6
触手可及,函数计算玩转 AI 大模型 | 简单几步,轻松实现AI绘图
|
20天前
|
存储 人工智能 数据可视化
高效率,低成本!且看阿里云AI大模型如何帮助企业提升客服质量和销售转化率
在数字化时代,企业面临海量客户对话数据处理的挑战。阿里云推出的“AI大模型助力客户对话分析”解决方案,通过先进的AI技术和智能化分析,帮助企业精准识别客户意图、发现服务质量问题,并生成详尽的分析报告和可视化数据。该方案采用按需付费模式,有效降低企业运营成本,提升客服质量和销售转化率。
高效率,低成本!且看阿里云AI大模型如何帮助企业提升客服质量和销售转化率
|
6天前
|
人工智能 新制造 芯片
2024年中国AI大模型产业发展报告解读
2024年,中国AI大模型产业迎来蓬勃发展,成为科技和经济增长的新引擎。本文解读《2024年中国AI大模型产业发展报告》,探讨产业发展背景、现状、挑战与未来趋势。技术进步显著,应用广泛,但算力瓶颈、资源消耗和训练数据不足仍是主要挑战。未来,云侧与端侧模型分化、通用与专用模型并存、大模型开源和芯片技术升级将是主要发展方向。
|
12天前
|
机器学习/深度学习 人工智能 自然语言处理
当前AI大模型在软件开发中的创新应用与挑战
【10月更文挑战第31天】2024年,AI大模型在软件开发领域的应用取得了显著进展,从自动化代码生成、智能代码审查到智能化测试,极大地提升了开发效率和代码质量。然而,技术挑战、伦理与安全问题以及模型可解释性仍是亟待解决的关键问题。开发者需不断学习和适应,以充分利用AI的优势。
|
7天前
|
存储 人工智能 固态存储
如何应对生成式AI和大模型应用带来的存储挑战
如何应对生成式AI和大模型应用带来的存储挑战
|
14天前
|
人工智能 JSON 自然语言处理
基于文档智能&RAG搭建更懂业务的AI大模型
本文介绍了一种结合文档智能和检索增强生成(RAG)技术,构建强大LLM知识库的方法。通过清洗文档内容、向量化处理和特定Prompt,提供足够的上下文信息,实现对企业级文档的智能问答。文档智能(Document Mind)能够高效解析多种文档格式,确保语义的连贯性和准确性。整个部署过程简单快捷,适合处理复杂的企业文档,提升信息提取和利用效率。

热门文章

最新文章