Agentic Memory 实践:用 agents.md 实现 LLM 持续学习

简介: 利用 agents.md 文件实现LLM持续学习,让AI Agent记住你的编程习惯、偏好和常用信息,避免重复指令,显著提升效率。每次交互后自动归纳经验,减少冷启动成本,跨工具通用,是高效工程师的必备技能。

LLM 能自动化研究、编程等各类任务,但有个恼人的问题:完成一个任务后,下次交互又得从零开始。每次都要重复告诉它代码格式怎么写、任务按什么偏好执行,时间就这么浪费掉了。

agents.md 文件可以让 LLM 把可复用的信息存到单独文件里学习你的习惯和模式。新任务开始时自动读取这个文件,冷启动问题没了重复指令也省了。

本文会概述如何通过持续更新 agents.md 文件来实现 LLM 的持续学习。

为什么需要持续学习?

全新的 Agent 上下文意味着一切从头来过,Agent 要重新摸清你的偏好你得花时间反复调教它。

比如要告诉 Agent 用 Python 3.13 语法别用 3.12,要求函数必须有返回类型,禁止使用 Any 类型等等。用 AI Agent 图的就是快,不需要要反复交代 Python 版本、Any 类型这些事。

Agent 有时还会花时间去查你早就知道的信息:比如文档表叫什么名字、CloudWatch 日志在哪、S3 存储桶的前缀是什么。假如 Agent 不知道文档表的名称,它得先列出所有表,再从中找可能的候选项,最后要么查表确认,要么问你。这套流程下来时间就没了。

这张图片展示了 Agent 查找文档表名称时必须执行的操作。首先必须列出数据库中的所有表,然后找到相关的表名。最后Agent 通过询问用户确认或在表中进行查询来确认它找到了正确的表。这需要花费大量时间。如果可以将文档表的名称存储在 agents.md 中,这样可以在以后编程 Agent 的交互中更加高效。

把文档表名称、CloudWatch 日志、S3 前缀这些信息写进 agents.md,这些时间就全省下来了。所以持续学习的核心诉求很简单:重复指令既烦人又耗时,而我们用 AI Agent 就是要追求极致效率。

如何应用持续学习

最简单的持续学习方法围绕 agents.md 文件展开,建议每个代码仓库都放一个。两个核心做法:

第一,Agent 犯错时告诉它正确做法,并让它把这条经验写进 agents.md。第二每次对话结束后用下面这个 prompt,让 Agent 把对话中学到的东西归纳存档,以后用得上:

 Generalize the knowledge from this thread, and remember it for later.   
 Anything that could be useful to know for a later interaction,   
 when doing similar things. Store in agents.md

这两招能让你在持续学习这件事上完成 80% 的工作,工程效率会有明显提升。

关键在于时刻惦记着 Agentic Memory。Agent 做了不对的事?立刻存到 agents.md 里。

你可能担心 agents.md 越写越长会拖慢 Agent、增加成本。其实不会,因为LLM 很擅长压缩归纳信息,几千字的 agents.md 根本不算什么。前沿 LLM 的上下文窗口动辄几十万 Token,完全装得下。

所以成本方面可能反而会下降,因为Agent 不用再花 Token 去查那些已经写在 agents.md 里的信息了。

重度使用 agents.md 进行 Agentic Memory 会让 LLM 用得更快,成本更低

一些实用技巧

Claude Code 里有个便捷操作:在终端输入 # 加内容就能直接写入 Agent 记忆。比如:

 # Always use Python 3.13 syntax, avoid 3.12 syntax

输入后会弹出选项让你选择存储位置。保存到用户记忆,信息会跨所有仓库生效,适合通用规则(比如函数必须有返回类型)。保存到当前文件夹,适合特定服务的配置。保存到项目根目录整个仓库都能读到。

这张图片突出显示了在 Claude 中拥有的不同记忆选项。可以选择保存到用户记忆中将记忆存储在你的所有会话中,无论是哪个仓库。此外还可以将其存储在你所在项目的子文件夹中,例如存储关于特定服务的信息。最后还可以将记忆存储在项目根文件夹中,这样与该仓库的所有工作都将拥有该上下文。

不同编程 Agent 用的记忆文件不一样:Claude Code 用 CLAUDE.md,Warp 用 WARP.md,Cursor 用 .cursorrules。

但 agents.md 基本上所有 Agent 都认的文件名,所以我建议把信息往 agents.md 里写,这样不管用哪个编程 Agent 都能读到。毕竟今天 Claude Code 最强,明天说不定换别家了。

AGI 与持续学习

真正的持续学习有时被认为是 AGI 的最后几道门槛之一。现在的 LLM 本质上是用文件(比如 agents.md)来模拟持续学习——把学到的东西存下来,下次读取。理想状态应该是模型在学习新信息时直接更新权重,就像人的本能那样。

真正的持续学习还没实现,但这应该是未来几年会有突破的方向。

总结

想成为更高效的工程师,用好 agents.md 做持续学习是一条捷径。Agent 会逐渐学会你的习惯、记住你常犯的错误、熟悉你常用的信息,后续交互越来越顺畅。我认为重度使用 agents.md 是成为优秀工程师的必备技能,值得持续投入。

https://avoid.overfit.cn/post/7e3796a1a0214e1984037d8deee4a44f

作者:Eivind Kjosbakken

目录
相关文章
|
21天前
|
数据采集 人工智能 自然语言处理
一文读懂LLM微调:新手必知的原理、误区与场景化应用方案
本文深入浅出讲解LLM微调原理与实操,涵盖新手必知的核心概念、常见误区及场景化应用方案。通过类比“学霸特训”,解析微调与提示词区别,推荐轻量级LoRA方法,提供从数据准备、环境搭建到模型训练、效果评估的完整步骤,并附实用工具与避坑指南,助力AI初学者快速掌握定制化模型技能,实现个人或企业级AI应用落地。
|
11天前
|
人工智能 前端开发 测试技术
Violit: Streamlit杀手,无需全局刷新,构建AI快捷面板
Violit 是新一代 Python Web 框架,融合 Streamlit 的简洁语法与 React 的响应式性能。首创 O(1) 信号状态架构,零重运行、无需 `@cache`/`key`/回调,支持桌面原生应用与 30+ 主题,开箱即用、极速如光。
120 15
|
10天前
|
机器学习/深度学习 计算机视觉 网络架构
YOLO26改进 - 注意力机制 |融合HCF-Net维度感知选择性整合模块DASI 增强小目标显著性
本文介绍将HCF-Net中的维度感知选择性融合(DASI)模块集成至YOLO26检测头,通过通道分区与Sigmoid自适应加权,融合高/低维及当前层特征,显著提升红外小目标检测精度,在SIRST数据集上超越主流方法。(239字)
|
21天前
|
人工智能 缓存 安全
解密企业级知识管理:开源 AI 知识库的底层技术逻辑
某开源AI知识库(8.8K+星标)以六边形架构解耦、RAG引擎驱动,构建高召回、智能生成的全链路知识体系。从架构设计到安全管控,实现高性能、易扩展、强安全的企业级应用,全面超越传统Wiki与竞品。
|
10天前
|
机器学习/深度学习 人工智能 计算机视觉
YOLO26改进 - 注意力机制 | 多扩张通道细化器MDCR 通过通道划分与异构扩张卷积提升小目标定位能力
本文介绍了一种在YOLO26目标检测模型中引入高效解码器模块EMCAD的创新方法,以提升模型在资源受限场景下的性能与效率。EMCAD由多个模块构成,其中核心的EUCB(高效上卷积块)通过上采样、深度可分离卷积、激活归一化和通道调整等操作,兼顾了特征质量与计算成本。实验结果显示,该模块在显著减少参数与FLOPs的同时仍具备优异性能。文章还提供了完整的YOLO26模型集成流程、配置和训练实战。
YOLO26改进 - 注意力机制 | 多扩张通道细化器MDCR 通过通道划分与异构扩张卷积提升小目标定位能力
|
21天前
|
人工智能 缓存 自然语言处理
LLM多跳推理深度测试:四项指标精准定位模型的推理极限
本文探讨大模型在多步推理中的表现,通过四项压力测试对比Llama 3.2与Qwen 3的逻辑极限。分析揭示:Llama 3.2依赖预训练内化的直觉推理,稳定高效;Qwen 3则靠“自我对话”推进复杂任务,虽具思考深度但易受算术错误影响,深层推理易崩溃。两者适用于不同场景——速度优先选Llama,探索性任务可试Qwen。
168 12
LLM多跳推理深度测试:四项指标精准定位模型的推理极限
|
9天前
|
关系型数据库 项目管理 数据安全/隐私保护
Leantime:开源项目管理神器
Leantime是一款专为非专业项目经理设计的开源项目管理工具,在Jira的臃肿和Trello的简化之间找到了完美平衡。它集成了战略规划、敏捷看板、甘特图、知识管理、工时跟踪等全面功能,支持Docker一键部署。无论是创业团队还是企业部门,Leantime都能以极低的学习成本,让每位成员轻松参与项目协作。告别过度复杂的工具,用这款轻量而强大的神器,为你的2026年项目计划保驾护航。
101 16
 Leantime:开源项目管理神器
|
9天前
|
存储 缓存 监控
pandas 3.0 内存调试指南:学会区分真假内存泄漏
本文揭秘pandas“内存不释放”的常见误解:非泄漏,实为CoW共享、Arrow缓冲池、视图隐式引用及分配器延迟归还OS内存所致。RSS≠真实占用,排查需结合tracemalloc、objgraph与原生指标,核心是管控引用生命周期。
140 12
pandas 3.0 内存调试指南:学会区分真假内存泄漏
|
10天前
|
人工智能 开发框架 IDE
AI 时代的量化革命:10分钟开发你的第一个交易策略
本文手把手教你用AI工具10分钟开发首个量化交易策略:从克隆SDK、启动AI IDE,到生成KDJ_RSI组合策略、配置运行环境并实盘验证。零基础也能快速上手,开启AI驱动的量化投资新范式!
167 17
|
10天前
|
数据采集 自然语言处理 监控
大模型应用:情感分析模型微调深度分析:从基础预测到性能优化.6
本文系统讲解中文情感分析模型微调后的深度评估方法,涵盖微调流程、预测置信度分析、混淆矩阵可视化、错误模式挖掘及系统性偏差诊断,强调超越准确率的可解释性分析,助力构建可靠、鲁棒的AI系统。
124 13