讨论下llm的prefix caching机制

简介: 本文探讨LLM推理中Prefix Caching机制的原理与实践:解释为何将动态内容(如React循环中的tool call结果)放在system prompt会破坏缓存命中,导致成本激增;强调应将变量部分置于user prompt末尾,以最大化复用system+固定user前缀的KV缓存,显著降本提效

为什么要写这个

前段时间跟别人讨论起做过的一些agent项目,他问我:你把llm执行react循环过程中的tool call和结果都存在哪?我说放在了system prompt里面。他说这就不太专业了,会导致请求走不了模型的kv cache,增加成本。我很惊讶,于是赶紧来学习了一下


prefix caching机制


1. 为什么要走缓存

一般大模型提供商对输入token都会有两个价格,一个是正常价格,这部分是不命中缓存的,另一个是缓存命中价格。一般后者的价格远低于前者,以claude opus为例,缓存命中部分的token价格仅为1/10

image.png


2. LLM 视角下的“扁平化”输入

当你通过 OpenAI Compatible API 发送如下格式的请求时:

[
  {"role": "system", "content": "你是一个有用的助手...(此处省略2000字规则)"},
  {"role": "user", "content": "请帮我分析这份文档...(此处省略5000字文档)"},
  {"role": "user", "content": "总结一下第一段。"}
]

在大模型的推理引擎内部,这一串消息会被转换成一个长字符串(Token 序列),类似于:

[System_Start]你是一个...[System_End][User_Start]请帮我...[User_End]总结一下...


3.Prefix Caching 的工作原理:最长公共前缀

Prefix Caching 的核心逻辑是 Radix Trie(基数树) 或类似的哈希匹配机制。它只关心:“从第一个 Token 开始,这新的请求和之前的请求有多少是重合的?”

因此,缓存是也就是这一连串 Token 的顺序决定的。


场景 A:重复内容在 System Prompt

- 请求 1: [System: A] + [User: B]

- 请求 2: [System: A] + [User: C]

- 结果: 推理引擎发现 [System: A] 这一段在缓存里有,直接复用 KV Cache。

- 命中率: System Prompt 部分被缓存。


场景 B:重复内容在 User Prompt,且 System Prompt 也相同

- 请求 1: [System: A] + [User: LongContext + Question 1]

- 请求 2: [System: A] + [User: LongContext + Question 2]

- 结果: 推理引擎发现 [System: A] + [User: LongContext] 这一长串都在缓存里。

- 命中率: System Prompt 加上 User Prompt 的前半部分都会被缓存。这是最高效的用法。


场景 C:System Prompt 变了(这是最大的坑)

- 请求 1: [System: A] + [User: LongContext]

- 请求 2: [System: B] + [User: LongContext]

- 结果: 因为序列是从头开始匹配的,一旦开头的 System Prompt 变了(A 变成了 B),后面的 User Prompt 即使完全一样,也无法利用 Prefix Caching。

- 原因: Transformer 的注意力机制是因果的(Causal),后面的 Token 的 KV 值依赖于前面所有 Token 的计算结果。前面的变了,后面的计算结果全都要变。


回到我前面的场景,如果我把变量部分,也就是每轮react产生的工具调用放到system prompt中,那么变量后面的部分全部都是无法走缓存的。所以总的来说:prompt中的变量部分比如每轮产生的工具结果/思考/对话内容,都尽可能放在user-prompt的最后面

相关文章
|
12天前
|
人工智能 自然语言处理 Shell
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
本教程指导用户在开源AI助手Clawdbot中集成阿里云百炼API,涵盖安装Clawdbot、获取百炼API Key、配置环境变量与模型参数、验证调用等完整流程,支持Qwen3-max thinking (Qwen3-Max-2026-01-23)/Qwen - Plus等主流模型,助力本地化智能自动化。
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
|
7天前
|
人工智能 安全 机器人
OpenClaw(原 Clawdbot)钉钉对接保姆级教程 手把手教你打造自己的 AI 助手
OpenClaw(原Clawdbot)是一款开源本地AI助手,支持钉钉、飞书等多平台接入。本教程手把手指导Linux下部署与钉钉机器人对接,涵盖环境配置、模型选择(如Qwen)、权限设置及调试,助你快速打造私有、安全、高权限的专属AI助理。(239字)
4298 12
OpenClaw(原 Clawdbot)钉钉对接保姆级教程 手把手教你打造自己的 AI 助手
|
8天前
|
人工智能 机器人 Linux
保姆级 OpenClaw (原 Clawdbot)飞书对接教程 手把手教你搭建 AI 助手
OpenClaw(原Clawdbot)是一款开源本地AI智能体,支持飞书等多平台对接。本教程手把手教你Linux下部署,实现数据私有、系统控制、网页浏览与代码编写,全程保姆级操作,240字内搞定专属AI助手搭建!
4679 17
保姆级 OpenClaw (原 Clawdbot)飞书对接教程 手把手教你搭建 AI 助手
|
6天前
|
人工智能 机器人 Linux
OpenClaw(Clawdbot、Moltbot)汉化版部署教程指南(零门槛)
OpenClaw作为2026年GitHub上增长最快的开源项目之一,一周内Stars从7800飙升至12万+,其核心优势在于打破传统聊天机器人的局限,能真正执行读写文件、运行脚本、浏览器自动化等实操任务。但原版全英文界面对中文用户存在上手门槛,汉化版通过覆盖命令行(CLI)与网页控制台(Dashboard)核心模块,解决了语言障碍,同时保持与官方版本的实时同步,确保新功能最快1小时内可用。本文将详细拆解汉化版OpenClaw的搭建流程,涵盖本地安装、Docker部署、服务器远程访问等场景,同时提供环境适配、问题排查与国内应用集成方案,助力中文用户高效搭建专属AI助手。
3007 8
|
10天前
|
人工智能 JavaScript 应用服务中间件
零门槛部署本地AI助手:Windows系统Moltbot(Clawdbot)保姆级教程
Moltbot(原Clawdbot)是一款功能全面的智能体AI助手,不仅能通过聊天互动响应需求,还具备“动手”和“跑腿”能力——“手”可读写本地文件、执行代码、操控命令行,“脚”能联网搜索、访问网页并分析内容,“大脑”则可接入Qwen、OpenAI等云端API,或利用本地GPU运行模型。本教程专为Windows系统用户打造,从环境搭建到问题排查,详细拆解全流程,即使无技术基础也能顺利部署本地AI助理。
7204 16
|
8天前
|
存储 人工智能 机器人
OpenClaw是什么?阿里云OpenClaw(原Clawdbot/Moltbot)一键部署官方教程参考
OpenClaw是什么?OpenClaw(原Clawdbot/Moltbot)是一款实用的个人AI助理,能够24小时响应指令并执行任务,如处理文件、查询信息、自动化协同等。阿里云推出的OpenClaw一键部署方案,简化了复杂配置流程,用户无需专业技术储备,即可快速在轻量应用服务器上启用该服务,打造专属AI助理。本文将详细拆解部署全流程、进阶功能配置及常见问题解决方案,确保不改变原意且无营销表述。
4929 5
|
10天前
|
人工智能 JavaScript API
零门槛部署本地 AI 助手:Clawdbot/Meltbot 部署深度保姆级教程
Clawdbot(Moltbot)是一款智能体AI助手,具备“手”(读写文件、执行代码)、“脚”(联网搜索、分析网页)和“脑”(接入Qwen/OpenAI等API或本地GPU模型)。本指南详解Windows下从Node.js环境搭建、一键安装到Token配置的全流程,助你快速部署本地AI助理。(239字)
4816 23
|
16天前
|
人工智能 API 开发者
Claude Code 国内保姆级使用指南:实测 GLM-4.7 与 Claude Opus 4.5 全方案解
Claude Code是Anthropic推出的编程AI代理工具。2026年国内开发者可通过配置`ANTHROPIC_BASE_URL`实现本地化接入:①极速平替——用Qwen Code v0.5.0或GLM-4.7,毫秒响应,适合日常编码;②满血原版——经灵芽API中转调用Claude Opus 4.5,胜任复杂架构与深度推理。
8957 13