过去一段时间里,一场有关大模型技术相关的思考与探索开始在物流行业上演:从以“三通一达” 为代表的头部快递企业,到提供技术服务的数字平台如 G7 易流,以及覆盖海陆空的交通运输企业、客运企业、国央企,他们的 IT 信息负责人、CTO、CIO,有的在大模型与小模型间取舍,有的正推进大模型商业化,有的已朝着垂直场景大模型做迭代创新。
根据中商产业研究院发布的《2024-2029 年中国物流行业市场发展现状及潜力分析研究报告》,2023 年全国社会物流总额为 352.4 万亿元,同比增长 5.2%。预计 2024 年全国社会物流总额将增长至 367.5 万亿元。中国物流体系在政策支持和市场需求恢复的双重驱动下,正朝着高效、智能、绿色方向发展。
尽管物流行业主要是运人和载货,但其本质仍然是对供应链上下游的激活。同时,因其场景和供需关系多元化,这意味着包括 AI 技术在内,任何先进技术对物流行业的渗透和影响,都逃脱不开对整个供应链运营和服务效率的持续提升。
在这一逻辑下,最直接支撑企业产品商业化和业务运转的 IT 信息技术团队,在探索大模型落地时首先要考虑的不是炫技式的生成式人工智能(GenAI)应用,而是能不能在有限的成本预算、现实生产条件下实现对大模型的快速落地;能不能在快速变化的大模型技术中,结合未来业务 / 产品发展对新大模型的采用与投入有个较 为全面的预判;以及更加关注用户,审视大模型还将带来什么变化......与之伴随的是对场景评判、模型选择、工程调优、成本与商业化等多方面的考量。
优先落地场景
面对大模型技术的火热,第一要务不是盲目上技术,而是要有优先级的认知。大模型应用是个系统性工程,究竟是防御性还是进攻性,带来的探索结果将完全不同。从业内人士的分享来看,相较于降本,物流企业也有很多探索增效、增利的场景。
比如,在今年过年前,G7 易流在特定用户群范围内,在上游和下游对接环节上应用了“智能接单”技术。G7 易流首席科学家王守崑透露,这个小范围测试的识别准确率达到了 100%,“已经超过了我们的预期”。
物流中信息流的核心,就是预订单和订单,而不同物流企业的订单格式、规则非常复杂,使用传统小模型技术能够解决这些问题,但是沟通成本、研发成本等都很高。
应用大模型技术的“智能接单”,在某些环节下能提升10倍的效率,和传统小模型相比得到了一个质的提升。同时,传统小模型只能适应一个单一的产品,但运用了大模型的“智能接单”,适用的场景非常多。
王守崑认为,在行业上、在应用上面还有不少突破点,企业也需要依托比较大的基础设施,包括像阿里云这样的基础设施去进行大模型的落地。
总结起来,物流行业有属于自身优先级的三类大模型落地场景。
一是营销场景,AI 生成文章、图片用于营销场景,这在王守崑看来,也是最成熟、质量相对有保证的场景。二是客服场景,可应用于发货、运维、报修、查询等场景,如用文本生成 SQL 去做订单查询。三是 AI Copilot 助理类场景,例如 G7 易流上线的物流接单助手;还有安全小助手,也可提醒司机、安全员关注驾驶风险,挖掘风险事件背后的潜在因素。
王守崑更感兴趣的是基础模型最终能到什么程度,因为这决定了 G7 易流是跟着基础大模型走,还是要痛下决心自己搞个小一点的大模型?这点目前还没有特别明确的答案。他认为基础大模型的能力会更强一些,但从应用上来看专门精调的小模型在某些特定场景表现更好。
阿里云交通物流行业解决方案总经理娄恒了解到的情况是,目前物流行业的业务流程都围绕着人来设计,提效方向要么是提高人员服务能力,要么是防范人错误操作。AI 有望全面重塑一半以上的业务流程,减少人员错误操作给业务流程带来类似“收费站”的降速作用,从“辅助驾驶”进化到“自动驾驶”。
探索“物流 + 大模型”的最佳姿态
具体到模型的选择上,物流企业往往会从厂商信赖感、模型服务、数据安全等多方面考量。首先,国产基础大模型占最高优先级。同时,企业选择不同的模型来解决实际业务问题,会对大模型进行基准测试,即评估模型在不同任务上的表现。例如,用户会问什么问题,大模型给出的回答跟规划的答案是否一致等,然后通过一些性能指标如召回率、准确率进行记录。
货拉拉 CTO 张浩不久前阐述其大模型研发理念,即轻量化和场景化,“不贵大而贵精,在具体需求上追求极致,实现功能最大化。”
例如在车货匹配场景中,存在车货非标、车型多样等特征,导致模型训练更加复杂。再者,货运涉及订单、货物、车辆、驾驶员、路线等方面数据,数据种类、形态多,且由于货物和车辆位置实时变化,牵涉数据量庞大,所以货运数据的收集、整合和处理也变得更加复杂。
早在 2020 年,货拉拉技术团队便已经基于 AI、大数据等技术打造了智慧大脑中台系统,奠定了货拉拉的 AI 底层技术基础,有利于货拉拉技术团队进一步深耕 AI 技术,研发货运无忧大模型。同时,货拉拉平台拥有高质量的海量本地货运数据,有利于构建更专业的行业知识库,为货运无忧大模型提供强大的数据支撑。目前,货拉拉在客服 / 邀约、办公招聘、车货匹配、违禁品识别等业务场景中均持续探索,其自研的货运无忧大模型,官方显示, 在货运事实性问答测评中的准确率超过 90%。
此外,也有货运企业提出调度场景的大模型解决方案,已经在多家物流企业去验证和产品打磨,并且通过收集测试反馈,进一步进行商业化试点。
物流企业在大模型上纷纷主动探索,也在推动物流行业实现智能化加速。
大规模商用化,任重道远
然而,在优化和使用大模型方面,仍然存在许多待解决的现实挑战。
首先是模型推理带来的算力成本问题。且不论基础大模型的训练所需耗费的巨大算力,在实际生产环境下的模型推理成本仍然较高。
申通 CTO 赵柏敏指出,大模型在快递行业的应用会面临几个无法回避的挑战。
其一,成本问题。经济型快递的业务场景面向海量包裹,且对成本极为敏感。当前,大模型推理所需的 GPU 计算资源以及能耗等成本因素,制约了大模型在部分场景的落地。
其二,模型幻觉。大模型虽具备很强的泛化能力,但也带来了幻觉问题。虽然我们能够通过检索增强生成(Retrieval Augmented Generation,RAG) 在一定程度上解决这一问题,不过通常调优周期较长。大模型在一些确定性问题的处理上,准确率往往不及垂直领域模型。例如,在对地址进行分类和相似度比较时,大模型虽能给出可接受的结果,但实际测试效果不如地理模型。
其三,不具备复杂逻辑推理能力。大模型有所偏科,语文出色、数学欠佳,目前尚不具备参加高难度奥数比赛的能力。在快递领域,许多技术问题属于较难的数学问题,比如路由规划。
其四,推理响应时间长。同一系列的大模型,一般来说参数规模越大输出质量会越好,但响应时长也会增加,比如客服智能问答等直接交互场景。企业需要结合与用户体验与输出内容质量要求综合考虑,选择合适的模型。
尽管存在诸多挑战,但赵柏敏认为大模型在快递行业仍能发挥重大作用,诸如客服机器人、客服工单的 Copilot、ChatBI 、知识问答以及 Code Copilot(通 义灵码)等领域。在他看来,大模型进步速度非常迅速,相信在不远的将来,上述的挑战都将逐一被攻克。
一家大型运输集团对大模型的幻觉问题也给出了明确看法:物流行业拥有行业独特的知识,如果用专业的行业问题跟大模型互动,它的回答可能都是有道理的,但是没用,指导不了生产和工作。
为此,一些物流企业的思路是:构建行业大模型,基于基础大模型微调。从行业大模型内测表现来看,对物流领域专业问题的辅助和解答明显更为专业,泛化能力也会得到加强。
不过,这类方式通常考验计算资源和成本:微调过程需要消耗一定的计算资源,且参数调整存在难度,找到最优的参数复杂且耗时;同时,微调存在过拟合风险,如果数据量太少或过度调整,也会导致大模型的泛化能力下降。
而在某些特定场景,传统的小模型表现反而会更好。例如在调度场景,已经有不少企业在利用运筹求解与传统的机器学习或者深度学习模型结合,解决模型训练的问题。
中通快递 CTO 杨文指出,在路由规划等物流行业专业的需求领域,传统的运筹规划等方法更有效。在此之前,中通技术部门面临着一个可能是大部分物流企业产研团队都会遇到的诉求——报表治理。为此,中通选择了用传统的方法做归因分析,再加上大模型的方式简化报表。
根据中通的实践,在客服场景,尽管大模型的体验更好,但成本也更高,在一些特定任务中,NER(Named Entity Recognition,命名实体识别)等小模型基本也能满足需求。
结合当前物流企业的大模型探索,不难发现,企业一开始上手大模型,首先考虑的更多是大模型选型、数据安全、训练或推理成本、底层生态支持等问题,但在实操时发现,首先要解决的还是大模型的准确性,尤其是能结合生产场景中的模型能力。
云上大模型,围绕 AI 算力布局
目前提供基础大模型服务的云厂商,其模型训练和推理服务几乎都是在云上完成。如果物流企业希望聚焦在业务场景的落地,不想花巨额成本和时间训练基础模型,可采用成熟的基础模型服务或开源模型 + 云算力的方式实现部署,通过大模型工具链快速完成 RAG、提示词工程,实现大模型应用的快速落地。
但另一方面,需要注意的是,物流不仅仅是快递企业,物流还包括运输、城际间的运输、货运、集装箱运输,相较于已经几乎全量上云的三通一达等快递业务,还有大量的物流场景需还需要通过云上支撑,进而缩短 AI 应用落地的路径。
时代的变化让云计算产业也在发生变化。GenAI 的杀手级应用崛起,大模型需要集中资源训练任务。未来,云计算将由 CPU 为基础的服务器构建的通用算力,切换成 GPU 算力为主。
正因为如此,云计算,也成为大模型发展的重要底座,为物流企业用好大模型,快速实现 AI 技术与业务的结合落地提供了便利性。而随着云服务成本的进一步降低,将有利于企业尤其是中小企业,使用公共云快速拉起庞大的训练和推理资源,从而低成本实现 AI 创新。