淘宝闪购基于阿里云 EMR Serverless Spark&Paimon的湖仓实践:超大规模下的特征生产&多维分析双提效

简介: 本文介绍阿里云 Serverless Spark + Paimon 在淘宝闪购大数据湖仓场景的应用。

导读

淘宝闪购从 25 年春天的横空出世,到秋天 “第一杯奶茶” 的火爆,再到今天成为广大消费者即时生活服务的日常,业务团队取得了巨大的突破,背后自然少不了技术团队的支撑。经过一年多的探索实践,闪购大数据团队沉淀了以 Paimon 为底座,流、批、分析多引擎协作的 Lakehouse 架构。本文介绍阿里云 Serverless Spark + Paimon 在淘宝闪购大数据湖仓场景的应用。


业务介绍

淘宝闪购是阿里巴巴旗下的即时零售业务,也是目前电商领域非常热门的 “风口” 之一。淘宝闪购零售业务是淘宝闪购重要的生态体系之一,业务覆盖了餐饮外商品的外卖业务,包括超市便利、看病买药、水果买菜、鲜花潮玩、酒水饮料、食品百货、手机数码等众多品类和消费场景。

image.png

淘宝闪购零售数据团队是淘宝闪购 DIC(数据智能中心)下负责零售业务的数据团队。在 2025 年 5 月闪购业务快速发展的背景下,零售数据团队也面临着业务快速增长带来的数据体量和业务诉求对实时数据更强烈的压力,零售业务特殊场景,基础商品量级大,观测维度多,在大盘观测、多端流量调配及权益补充等场景下业务对多维分析和实验效果回收有更高时效的要求。在淘宝闪购数据团队长时间探索 ALake 积累的湖仓一体背景下,闪购初期零售数据的整体实时架构便融合了湖仓一体架构,快速支撑了业务在闪购上线初期快速看数和策略调整的诉求,经过多轮的技术探索,逐步形成了 Flink + Paimon + Spark + StarRocks 的技术架构,Spark 在其中扮演了非常关键的角色,在应用端使用 Spark 在营销特征生产、零售流量多维分析、AB 实验效果回收等场景上均得到了效率和稳定性的提升。


本文将主要分享零售数据团队在实时湖仓探索中在 Spark 应用落地的一些实践总结。


淘宝闪购零售数据实时架构演进之路

2.1 烟囱式开发的实时链路

6a86d9605e6246f09c9d62c4387d934e.png

主要应用场景:零售商家数据看板、实时分析。在此阶段遇到的问题主要是烟囱式开发,开发和维护成本较高。我们在实时中间层的沉淀上基本满足诉求,但是在应对业务多维分析需求时,原先架构的开发成本和数据核对的成本比较高,无法支撑快速迭代的业务诉求。


2.2 引入湖仓Paimon + StarRocks,实时分析提效初见成效

0c7524f50bd14d5296e771349504eb02.png

在引入了湖仓之后,实时主要技术架构升级到 TT + Flink + Paimon + StarRocks,主要应用场景:商家端应用、实时分析。


在湖仓一体的背景下,闪购初期我们选择了 StarRocks 查询引擎搭建 FBI 看板,快速响应了业务快速迭代的看数需求。在此场景下遇到的问题如下:


  • 维表引入效率低

由于湖仓在零售数据团队的引入处于初期,比较多的底层依赖公共层表都在 ODPS 中,在 FBI 引入 StarRocks 直查分析的情况下没有办法直接关联,所以 StarRocks 的物化没有办法实现比较多的维度聚合场景。


  • 需求迭代快,时效容忍度高

闪购上线初期,市场竞争激烈,业务需求的变化也快,对数据产出的时间要求也高,但是对于实时性的要求不是很高,所以对开发效率提了比较大的挑战。


  • 流量数据量级大,分析维度多,Cube 计算数据膨胀大,数据产出延迟大

与餐饮外卖场景不同,零售场景下业务需要关注到商家行业、城市、品牌、业态等多维度的流量和交易转化分析,应用场景主要是在快速增长的流量下做大盘观测、分行业运营、流量策略调整、权益补充等场景上,初期的技术方案是 Flink + Paimon + StarRocks,但是在基础流量量级上,Cube 膨胀倍数达到万倍,在对比之下,StarRocks 更适合在中等规模的数据聚合,在大 Cube 的规模下 StarRocks 的多维表物化视图无法稳定产出,导致数据时效性受到极大的影响,零售流量分析在淘宝闪购上线初期 StarRocks 物化视图的成功率约 40%~60%,在高峰期的数据延迟能达到 3h 以上。


2.3 引入批处理引擎Spark,实现流批一体,提升稳定性和效率,应用场景更丰富

为了解决以上的一些难题,我们联合了阿里云 EMR Serverless Spark 团队和爱橙 ALake Spark 团队合作,引入 Spark 引擎通过批处理实现准实时物理物化,补充当前在湖仓的技术栈上的缺口,经过近半年的应用实践,达成了在数据稳定产出上的目标,同时在产出时效性得到了大大提升。

16f789c2db7c4bc6be54e45ddd25c37e.png

闪购的批处理场景选择了 ALake Spark,主要考虑因素是 ALake Spark 跟 Paimon 的集成非常成熟。与其他具有私有格式的引擎不同,DLF Paimon 表是 ALake Spark 的 “内表”,支持 Paimon 的全部特性,包括读写全类型表(Append 表,PK 表,Object 表,Format 表),支持 ACID、Schema Evolution、Time Travel、Call Procedure 等湖表特性,支持列裁剪、谓词下推、基于统计信息的 Plan 调整、Z-Order 等查询优化,以及支持 DV 和 Variant 类型等高级特性。此外,ALake 通过跟阿里云 EMR 团队合作,引入 Fusion 和 Celeborn 等重要组件,大幅提升 Spark 的性能、稳定性和弹性,成为湖上批处理的首选引擎。主要概况以下几点:


(1)据湖的无缝集成ALake Spark 跟 Paimon 的集成非常成熟,尤其是对 DV 表的支持更佳,开启 Paimon 表的 Deletion-Vectors 属性后,Spark 的读写性能能提升约 3-5 倍;同时支持 ACID、Schema Evolution、Time Travel、Call Procedure 等湖表特性。


(2)Variant 高效 Json 数据存储和读写支持,让复杂文本的读取和计算效率得到大大的提升在测试场景中,读取性能在关闭和开启 Shredding 配置下分别提升 1.7 倍和 12 倍。


(3)稳定性强,解释性高。ALake 通过跟阿里云 EMR 团队合作,引入 Fusion 和 Celeborn 等重要组件,大幅提升 Spark 的性能、稳定性,这也是在闪购初期我们对实时/批处理引擎比较大的考量。并且可解释性强,数据核验的效率非常高,有助于提升效率。


(4)调优空间大,效率高。支持列裁剪、谓词下推、基于统计信息的 Plan 调整、Z-Order 等查询优化方案,我们在 Spark 测试过程中发现对任务的调优可以获得指数级的效率提升收益,对数据的产出时效有极大的提升,最大能提升 90% 以上的任务运行效率。


(5)开发和运维的成本低。技术栈比较成熟,无需手动管理和复杂的基础设施搭建,即可快速启动任务开发,大大减少在闪购势如破竹的背景下快速迭代的学习成本,真正实现了流批一体,提升了整个团队的开发效率。


最终 Spark 在淘宝闪购零售数据多个场景中应用:AB 实验回收分析、实时流量分析、营销批信号和特征生产等。整个开发成本平均提升 30%~40% 的效率,数据产出稳定性提升 90% 以上;同时,通过 Spark 调优带来的效率提升最高达到了 92%。


Spark + Paimon重要特性详解

3.1 Delete Vector

在 Delete Vector(DV)之前,Paimon 支持两种数据合并方式:Copy On Write(COW)和 Merge On Read(MOR)。COW 模式在更新时需重写整个数据文件,导致写放大和高延迟,难以支持高频流式写入;而 MOR 虽写入高效,但读取时需做文件合并,带来显著的读开销,且对计算引擎集成不友好。DV 引入了新的机制:写入时记录被删除的数据,读取时过滤。DV 既保留了 MOR 写入高效性,又减少了 COW 的合并开销,从而更好地支持流批一体场景。下面以 PK 介绍 DV 的整体设计。


在 Delete 和 Update 时,生成 Delete File 并记录被删除 Record:

5eeb6d341d8f461ca75d00a178c32406.png

DV File 具体编码如下,逻辑上记录每个文件被删除的 Record 的 RowId,物理上以 Bitmap 存储在 Index File Meta 和 Index File 中,读表时过滤掉 Delete File 记录的 Record。

e352b0df349743c28b87f4a1bf1f5f06.png

对比 5 亿条数据(20% 重复率)的主键表入湖后查询,开启 DV 比关闭 DV 性能提升 3-5 倍。


3.2 Variant

Json 数据在闪购业务中使用非常广泛,但 Json 解析的性能经常成为瓶颈。针对这个问题,ALake Spark 结合 Paimon 推出了 Variant 类型,通过牺牲一次写性能,大大加速高频的读性能。


Variant 的整体思路是写时解析 Json 的 Schema 并以自描述可索引的方式存储 Schema 和数据,只需在写入时做一次完整解析和编码,换取读取时媲美结构化数据的性能。Variant 的编码格式如下:

0b7e35a3c1aa43aab47a9fb4c93f821a.png

Variant 的 Metadata 字段存储的是去重之后的 Key,Value 的 Filed Id 部分存储的是按照 Key 字典排序之后的 Id,每个 Id 指向其对应的 Key,从而支持快速二分查找所需要的 Key。Value 的 Field Offset 和 Field Value 部分存储 Value 的偏移和具体的值。针对嵌套结构,Field Value 递归存储上述结构(Metadata + Value 字段)。


针对结构相对固定的 Variant 数据,ALake Spark + Paimon 还支持了 Shredding,即采样出固定的字段,并以 Struct 的方式存储,从而进一步加速解析过程。


在测试场景中,读取性能在关闭和开启 Shredding 配置下分别提升 1.7 倍和 12 倍:

0e823cf7138d45bca6dbbcf66237b4c2.png

3.3 Fusion + Celeborn

Fusion 是 ALake Spark 跟阿里云 EMR Serverless Spark 团队合作引入的向量化 SQL 执行引擎,使用 C++ 向量化技术重写了 Spark SQL Engine。除了语言层面,Fusion 的主要特点是把原有的行式计算转变成列式计算,从而更易于 SIMD 加速,更加 CPU Cache 友好,结合异步 & 合并 IO 等优化,在 CPU 密集型作业上相比 Java Engine 有数倍性能提升。


Apache Celeborn 是阿里云 EMR Serverless Spark 团队捐赠给 ASF 的顶级项目,目前已经是 Spark Remote Shuffle Service 的事实标准。Celeborn 主要解决的问题是大 Shuffle 作业的稳定性、弹性和性能问题,主要技术手段是远程存储和 Shuffle 数据重组,彻底解决重 Shuffle 作业经常出现的 Fetch Failure 异常,生产作业极端情况有数量级的性能提升。


Fusion + Celeborn 的架构如下:

38dae78781d544078a10763716f34d05.png


Spark + Paimon在闪购的应用

4.1 流批一体,营销实时特征生产提效

随着闪购市场的竞争日益激烈,对用户的精细化运营变得越来越关键,同时也对营销算法提出了新的挑战,以前的离线特征已经无法满足业务策略快速迭代的诉求,算法团队也对特征的时效性提出了更高的要求。


之前的实时特征生产流程如下所示,在算法侧离线特征重要性评估之后,向数据团队提特征生产需求,在数据和算法开始梳理和对齐口径开始,针对某一批实时特征的开发和上线,结合数据验证,理论上需要 2 个星期以上的时间,而且还不包含全链路的质量保障工作,如果遇到比较极端的序列型特征,Flink SQL 还没有办法支持,需采用 Data Streaming 的方案实现,开发时长甚至会达到 1 个月以上,主要的时间是花在了特征开发阶段。

f4b2e6df6f6941ce80a4af727dcaa141.png

在接入湖仓之后,我们采用了新的实时特征生产模式,新的生产模式核心思想是逐步提升特征的时效性,优先生产分钟级时效的特征,根据分钟级特征的重要性表现,决定是否转向实时生产的模式。


新的实时特征生产流程如下所示:

6b48b33944c44ea0836ed35e1fbd9697.png

此生产模式下的数据链路如下:

fb00cbcca960498fa012b7e91ed658e7.png


零售数据团队营销特征生产的提效成果:Spark 生产单个特征的效率至少是原先的 3 倍以上,实时特征有效比例 20%,在整个特征生产到算法实验链路上,至少能提升 40% 的效率,同时在资源成本上也有约 20% 的节省。


4.2 流量 & 营销多维分

如前文所述,在零售 EAT & 夏战的大范围作战中,对于时效性的要求越来越高,高时效的数据应用在大盘观测、流量调配、策略调整、权益补充等多个场景中。因此,业务侧与管理层对于数据的实时性有更高的期待和更多的要求,原有的技术架构与人力无法匹配快速迭代的需求。从维度上看,零售场景下业务需要关注到商家行业、城市、品牌、业态、类目等多维度的流量和交易转化分析,如果再配合营销超算同学做算法 AB 实验的回收,数据需要再加入实验信息、端、用户分层、笔单分层、券维度等等实验所需维度,在实验效果回收时需要 Cube 做数据多维分析数据量膨胀近万倍,传统生产逻辑已无法满足算法侧及时回收数据的强诉求。

3c3c587163494a3180a1837842342109.png

在实时&准实时分析上形成3套分析范式:

序号

分析框架

场景/示例

1

Paimon[detail]+StarRocks

中小数据规模实时分析,例如零售实时营销

2

Paimon+StarRocks MV[sum]+StarRocks

中等数据规模实时分析,例如零售多维实时AB实验分析

3

Paimon+Spark[sum]+StarRocks

大批量数据准实时分析,例如零售多维实时流量分析


数据湖技术的落地带来了新的可能。我们通过 Spark+Paimon 的结合的方式并进行合理的执行计划优化,使回收数据的时效性达到半小时/10分钟级,大大提高算法实验回收效率,为营销和搜推赋能。


4.3 Spark治理和调优最佳实践应用

Spark 在应用上调优和治理的空间是比较大的,尤其是针对大量级数据的聚合查询。以下是我们在实践过程中总结的调优案例,对我们运算效率和资源利用均有特别大的提升。总的来说,Spark 的核心调优原则总结为 2 条:


(1)问题导向

  • 先通过 Spark UI 定位瓶颈(Stage 执行时间、Task 分布、数据输入量),再针对性优化。
  • 关键指标:Stage 执行时长、Task 耗时方差、Shuffle 数据量、内存溢出(OOM)日志。


(2)分级优化

  • 优先级:参数调优 → 执行计划优化 → 存储层优化(湖表结构调整)。


4.3.1 数据倾斜治理(最高频问题)

(1)诊断方法

  • Spark UI 观察:
  • 某 Stage 执行时间远超其他 Stage(如占总耗时 80%+)。
  • 同 Stage 下 Task 耗时方差极大(如 90% Task 耗时 <1min,个别 Task >30min)。
  • Shuffle Read/Write 数据量异常(如某 Task 读取数据量是平均值的 100 倍+)。
  • 定位倾斜算子:
  • 通过 SQL / DataFrame 查看 Stage 对应的 SQL 逻辑(如 Join、Group By)。
  • 检查输入数据量差异(如大表 7.5 亿 vs 小表 400 万)。


(2)治理方案

场景

解决方案

关键参数/操作

效果

通用倾斜

开启自适应倾斜处理

spark.sql.adaptive.skewJoin.enabled=true

spark.sql.adaptive.skewJoin.skewedPartitionThresholdInBytes=256MB

拆分倾斜分区,避免单 Task 过载

大表 JOIN 小表

强制 MapJoin(避免 Shuffle)

SQL 中添加 /*+ MAPJOIN(small_table) */ Hint

消除 Shuffle,提速 85%+

倾斜 Key 预处理

对倾斜 Key 单独处理(如加随机前缀)

CONCAT(key, '_', FLOOR(RAND() * 10))

分桶不合理

调整Paimon表分桶数

分桶设置黄金公式

推荐分桶数 = 分区数据量 (GB) / 2

示例:单分区数据 864GB → 分桶数设为 432

解决底层数据分布不均

4.3.2 执行计划优化(CUBE/维度展开场景)

(1)问题特征

  • 维度组合爆炸(如 4 维度展开 200+ 倍)。
  • 单 Stage 内完成数据读取 + 维度计算,Task 并发度不足。


(2)优化方案

步骤

操作

原理

1. 增加并发度

在维度展开前插入hint

 repartition(N)

将计算拆分到更多 Task,避免单 Task 负载过重

2. 确定 N 值

按数据量级尝试:N = 数据量 × (20/50/100)

示例:900 万数据 → 试 400

通过 SparkUI 观察 Task 均衡性调整 N

3. 验证效果

检查新 Stage 是否存在倾斜 + 总耗时下降

目标:Task 耗时标准差 < 20%


👉 优化效果:CUBE 作业从 90min 优化至 8min,性能提升 92.7%


4.3.3 湖表存储层优化(终极手段)

(1)适用场景

  • 参数调优后性能仍不达标。
  • 分区数据量与分桶数严重不匹配(如 1TB 数据仅 10 个桶)。


(2)优化步骤

c86bd36a4ac74130b929806e34ae8f4d.png

  1. 分桶数量调整
  • 计算公式:分桶数 = 分区数据量 (GB) / 2
  • 参考文档:Paimon Rescale Bucket
  1. 分桶键选择
  • 主键表:默认使用主键(无需显式设置)。
  • 非主键表:选择高频 JOIN 或 GROUP BY 字段(如 user_id)。
  1. 关键配置示例
TBLPROPERTIES (
  'bucket' = 'xxx',  -- 按数据量计算
  'primary-key' = 'ds,user_id,order_id',  -- 主键表必设
  'deletion-vectors.enabled' = 'true'      -- 启用删除向量加速查询
)


4.3.4 总结调优流程图(实战指南)

1fcdd11569cb4bcc8cab7ead39d15c7d.png


总结与未来展望

在淘宝闪购上线以来的这一段时间内,业务不断在创造一个又一个峰值,用户活跃度和订单量级都屡创新高,在这背后,数据团队始终以 “稳定、高效、智能” 为准则,在湖仓一体架构的基础上,深度融合流计算与批处理能力,构建起一套高弹性、低延迟、强一致的数据处理体系,作为核心计算引擎,阿里云 EMR Serverless Spark 在湖仓一体架构中扮演了关键角色,在湖仓流计算和批计算的共同加持下抗住了业务的压力,同时越来越多的业务场景应用快速落地。


未来,我们也会继续与阿里云 EMR Serverless Spark 团队和爱橙 ALake Spark 团队密切合作,在闪购业务上探索更多的使用场景,发挥 Spark 更大的价值。我们坚信,在 AI 与即时零售深度融合的时代浪潮下,Spark 不仅是计算引擎,更是连接数据、智能与商业价值的关键桥梁。而淘宝闪购正成为这一桥梁上最活跃、最具创新力的先行者之一,欢迎大家到淘宝闪购下单。


作者:胡红(乙康)|淘宝闪购 数据架构师

鸣谢:感谢我们淘宝闪购-DIC 零售数据团队慧航、圣俞、空竹、晚识、约理、鸢鸿、舫舟、量衡、清临等各位同学在湖仓应用的支持;

感谢淘宝闪购-DIC 霄明、哲昆在零售数据团队在湖仓探索和 Spark 应用上的支持和帮助;

感谢爱橙湖仓团队无谓、其修、夷羿的大力支持;

感谢阿里云 EMR Serverless Spark 团队一锤、寻径、履霜、羊川、昕羽、羲羽、郑涛等同学的支持。


相关文章
|
7天前
|
人工智能 自然语言处理 Shell
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
本教程指导用户在开源AI助手Clawdbot中集成阿里云百炼API,涵盖安装Clawdbot、获取百炼API Key、配置环境变量与模型参数、验证调用等完整流程,支持Qwen3-max thinking (Qwen3-Max-2026-01-23)/Qwen - Plus等主流模型,助力本地化智能自动化。
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
|
5天前
|
人工智能 JavaScript 应用服务中间件
零门槛部署本地AI助手:Windows系统Moltbot(Clawdbot)保姆级教程
Moltbot(原Clawdbot)是一款功能全面的智能体AI助手,不仅能通过聊天互动响应需求,还具备“动手”和“跑腿”能力——“手”可读写本地文件、执行代码、操控命令行,“脚”能联网搜索、访问网页并分析内容,“大脑”则可接入Qwen、OpenAI等云端API,或利用本地GPU运行模型。本教程专为Windows系统用户打造,从环境搭建到问题排查,详细拆解全流程,即使无技术基础也能顺利部署本地AI助理。
6139 12
|
3天前
|
人工智能 机器人 Linux
保姆级 OpenClaw (原 Clawdbot)飞书对接教程 手把手教你搭建 AI 助手
OpenClaw(原Clawdbot)是一款开源本地AI智能体,支持飞书等多平台对接。本教程手把手教你Linux下部署,实现数据私有、系统控制、网页浏览与代码编写,全程保姆级操作,240字内搞定专属AI助手搭建!
3324 8
保姆级 OpenClaw (原 Clawdbot)飞书对接教程 手把手教你搭建 AI 助手
|
5天前
|
人工智能 JavaScript API
零门槛部署本地 AI 助手:Clawdbot/Meltbot 部署深度保姆级教程
Clawdbot(Moltbot)是一款智能体AI助手,具备“手”(读写文件、执行代码)、“脚”(联网搜索、分析网页)和“脑”(接入Qwen/OpenAI等API或本地GPU模型)。本指南详解Windows下从Node.js环境搭建、一键安装到Token配置的全流程,助你快速部署本地AI助理。(239字)
3873 19
|
11天前
|
人工智能 API 开发者
Claude Code 国内保姆级使用指南:实测 GLM-4.7 与 Claude Opus 4.5 全方案解
Claude Code是Anthropic推出的编程AI代理工具。2026年国内开发者可通过配置`ANTHROPIC_BASE_URL`实现本地化接入:①极速平替——用Qwen Code v0.5.0或GLM-4.7,毫秒响应,适合日常编码;②满血原版——经灵芽API中转调用Claude Opus 4.5,胜任复杂架构与深度推理。
7361 11
|
3天前
|
存储 人工智能 机器人
OpenClaw是什么?阿里云OpenClaw(原Clawdbot/Moltbot)一键部署官方教程参考
OpenClaw是什么?OpenClaw(原Clawdbot/Moltbot)是一款实用的个人AI助理,能够24小时响应指令并执行任务,如处理文件、查询信息、自动化协同等。阿里云推出的OpenClaw一键部署方案,简化了复杂配置流程,用户无需专业技术储备,即可快速在轻量应用服务器上启用该服务,打造专属AI助理。本文将详细拆解部署全流程、进阶功能配置及常见问题解决方案,确保不改变原意且无营销表述。
3594 3
|
3天前
|
存储 安全 数据库
2026年使用Docker部署OpenClaw(原Clawdbot/Moltbot)完整步骤教程
OpenClaw(原Clawdbot/Moltbot)是一款开源的本地运行个人AI助手,支持WhatsApp、Telegram、Slack等十余种通信渠道,兼容macOS、iOS、Android系统,还可渲染实时Canvas界面。本文提供基于Docker Compose的生产级部署指南,涵盖环境准备、源码获取、配置、构建、启动及运维等关键环节,补充生产环境必需的安全配置、数据持久化、备份与监控建议,与官方配置无冲突,适用于希望通过Docker快速部署的用户。需说明的是,OpenClaw暂无官方预构建Docker镜像,需通过源码+Dockerfile本地构建,这也是官方推荐的最稳定部署方式。
2572 0
|
4天前
|
人工智能 JavaScript 安全
Clawdbot 对接飞书详细教程 手把手搭建你的专属 AI 助手
本教程手把手教你将 Moltbot(原 Clawdbot)部署在 Linux 服务器,并对接飞书打造专属 AI 助手:涵盖环境准备、Node.js/NVM 安装、Moltbot 快速安装(支持 Qwen 模型)、Web 管理面板配置及飞书应用创建、权限设置与事件回调对接,全程图文指引,安全可靠。
2488 3
Clawdbot 对接飞书详细教程 手把手搭建你的专属 AI 助手
|
5天前
|
人工智能 安全 Shell
在 Moltbot (Clawdbot) 里配置调用阿里云百炼 API 完整教程
Moltbot(原Clawdbot)是一款开源AI个人助手,支持通过自然语言控制设备、处理自动化任务,兼容Qwen、Claude、GPT等主流大语言模型。若需在Moltbot中调用阿里云百炼提供的模型能力(如通义千问3系列),需完成API配置、环境变量设置、配置文件编辑等步骤。本文将严格遵循原教程逻辑,用通俗易懂的语言拆解完整流程,涵盖前置条件、安装部署、API获取、配置验证等核心环节,确保不改变原意且无营销表述。
2253 6
|
6天前
|
机器人 API 数据安全/隐私保护
只需3步,无影云电脑一键部署Moltbot(Clawdbot)
本指南详解Moltbot(Clawdbot)部署全流程:一、购买无影云电脑Moltbot专属套餐(含2000核时);二、下载客户端并配置百炼API Key、钉钉APP KEY及QQ通道;三、验证钉钉/群聊交互。支持多端,7×24运行可关闭休眠。
3582 7