构建有记忆的 AI Agent:SQLite 存储 + 向量检索完整方案示例

简介: 本文介绍如何为AI Agent构建记忆系统,通过SQLite存储交互历史、向量数据库实现语义检索,结合LLM反思与总结,赋予Agent跨会话记忆、自我反思和目标追踪能力,使其从被动应答工具进化为可长期协作的智能伙伴。

现在的 Agent 系统有个很明显的问题 —— 会话一结束,什么都忘了。

这不是个技术缺陷,但是却限制了整个系统的能力边界。Agent 可以做推理、规划、执行复杂任务,但就是记不住之前发生过什么。每次对话都像是第一次见面,这种状态下很难说它真正"理解"了什么。

记忆能力是把 LLM 从简单的问答工具变成真正协作伙伴的关键。一个只能"回答当前问题",另一个能"基于历史经验做决策",这就是增加了记忆能力后的改进。

这篇文章会讲怎么给 Agent 加上记忆、反思和目标跟踪能力。技术栈很简单:

  • SQLite 做结构化存储
  • 向量数据库(Pinecone、FAISS、Chroma 都行)处理语义检索
  • LLM 层负责反思和总结

这套架构可以直接集成到现有框架里,不管你用 LangChain、CrewAI 还是自己写的框架。

记忆为什么这么重要

Agent 的自主性需要记忆支撑,先说跨会话连续性,一个数据质量监控 Agent 如果能记住哪些数据集经常出问题,就能提前预警而不是每次都从头排查。

而且通过记忆还可以增加反思的能力,Agent 可以自己评估"这次任务完成得怎么样"、"推理过程有没有问题",这种自我评估不需要复杂的奖励函数,用自然语言就能实现强化学习的效果。

长期目标跟踪也是一个很大的需求,数据整理、研究辅助这类工作往往跨越多次交互,需要 Agent 记住目标、追踪进度、理解任务之间的依赖关系。

没有记忆的 Agent 永远困在当下,无法积累经验也无法改进。

系统架构

整体设计分两个记忆层面:情景记忆记录发生的事情,语义记忆提炼学到的经验。

这个架构的核心是让 Agent 既能查询"我之前做过什么",也能理解"类似的情况该怎么处理"。

数据库设计

为了演示,我们使用SQLite ,因为它轻量、本地化、跨平台支持好。对于大多数场景够用了,除非你的 Agent 需要处理海量并发。

数据库如下:

 CREATE TABLE IF NOT EXISTS memory_events (  
    id INTEGER PRIMARY KEY AUTOINCREMENT,  
    agent_name TEXT,  
    timestamp DATETIME DEFAULT CURRENT_TIMESTAMP,  
    input TEXT,  
    output TEXT,  
    summary TEXT,  
    embedding BLOB  
);  

CREATE TABLE IF NOT EXISTS goals (  
    id INTEGER PRIMARY KEY AUTOINCREMENT,  
    agent_name TEXT,  
    goal TEXT,  
    status TEXT DEFAULT 'in_progress',  
    last_updated DATETIME DEFAULT CURRENT_TIMESTAMP  
 );

memory_events 表存交互历史和摘要,goals 表追踪目标状态。每个任务执行完就自动记录,这些数据后面会用来做反思分析。

记录情景记忆

每次任务执行完,把关键信息存下来:

 def log_memory_event(agent_name, input_text, output_text, summary, embedding):  
    conn = sqlite3.connect("memory.db")  
    cur = conn.cursor()  
    cur.execute("""  
        INSERT INTO memory_events (agent_name, input, output, summary, embedding)  
        VALUES (?, ?, ?, ?, ?)  
    """, (agent_name, input_text, output_text, summary, embedding))  
    conn.commit()  
     conn.close()

summary 可以让 LLM 生成:

 summary_prompt = f"Summarize this agent interaction:\n\nInput: {input_text}\nOutput: {output_text}\n"  
 summary = llm.complete(summary_prompt)

然后把摘要转成向量存起来:

 embedding = embedding_model.embed(summary)

这样做的好处是,检索时不依赖关键词匹配,而是基于语义相似度。Agent 记住的不是原始文本,是事情的"意思"。

语义检索实现

新查询来的时候,先找出相关的历史记忆:

 def recall_related_memories(query, top_k=3):  
     query_embedding = embedding_model.embed(query)  
     results = pinecone_index.query(vector=query_embedding, top_k=top_k)  
     return [r['metadata']['summary'] for r in results]

检索出来的摘要直接注入到 prompt 里:

"以下是一些相关的历史经验,处理当前问题时可以参考……"

这个过程模拟了人类决策前回忆类似经历的思维方式。向量检索能找到语义上相关但表述完全不同的内容,比传统的全文搜索要智能得多。

反思机制

有了记忆以后,还可以让 Agent 学会从记忆中学习。反思循环把被动的存储变成主动的能力提升。每隔几次交互触发一次:

 reflection_prompt = f"""  
You are reviewing your recent actions. Based on the following summaries, what patterns,  
mistakes, or improvements do you notice?  

{recent_summaries}  

Provide 3 takeaways and 1 improvement plan for your future tasks.  
"""  

 reflection = llm.complete(reflection_prompt)

可以把这个反思结果作为元记忆存起来,也可以生成 embedding 用于后续检索。

更进一步还可以加自我批评机制。每个主要任务完成后,Agent 评估是否达成目标。没达成就写个修正笔记,下次遇到类似情况知道该怎么改进。

这种方式实现了推理层面的强化学习,不需要梯度更新,纯靠自然语言就能调整行为模式。

目标管理

Agent 需要目标感。可以动态定义、更新、评估目标:

 def update_goal(agent_name, goal, status):  
    conn = sqlite3.connect("memory.db")  
    cur = conn.cursor()  
    cur.execute("""  
        UPDATE goals SET status = ?, last_updated = CURRENT_TIMESTAMP  
        WHERE agent_name = ? AND goal = ?  
    """, (status, agent_name, goal))  
    conn.commit()  
     conn.close()

可以专门跑一个目标跟踪 Agent,定期检查未完成的目标然后提醒相关 Agent:

"目标:提升数据时效性当前进度:70%建议行动:检查上周的数据延迟情况"

这样整个系统就有了持续性。Agent 不再是处理单次请求的工具,而是在追求长期目标的过程中持续运作。

完整流程

把这些组件串起来流程就是这样的:

1、用户请求进来,Agent 执行任务,同时把交互记录写入 SQLite 和向量库。

2、处理新请求之前,先做语义检索调出相关记忆,把这些信息加到上下文里。

3、每隔 N 次交互,Agent 总结最近的行为表现,写反思笔记存档。

4、目标独立于单次会话存在,可以跨越多天甚至多周追踪进度。

5、这样构建出来的 Agent 更接近一个能学习、能记忆、能进化的系统。

一些实践经验

存摘要比存完整对话有效得多,既节省空间又便于检索。

定期清理数据很重要。比如说设置个定时任务,合并相似的记忆或者删掉不再有用的旧记录。

语义压缩是个好技巧 —— 把多个相关事件总结成一条元记忆,减少信息冗余的同时保留关键模式。

提示词设计也要引导元认知。给 Agent 一个明确角色比如"反思分析师",会让自我评估的质量明显提升。

如果想直观看到效果,可以搭个 Streamlit 或 React 界面,实时展示记忆聚类、目标进度、反思内容这些信息。可视化对调试和优化很有帮助。

最后

加上记忆、反思、目标追踪,Agent 就从一次性的工具变成了学习型伙伴。他们的区别在于一个只会执行任务,另一个能理解意图的演变并主动适应。

Agent AI 这个方向发展下去,记忆系统会成为基础设施。数字助手需要记住昨天发生的事,反思今天的表现,规划明天的行动。

最简单的记忆功能实现起来并不复杂,SQLite 加个向量库,写几个精心设计的 prompt,就能让 Agent 开始进化了。

https://avoid.overfit.cn/post/44c8d547475340d59aa4480f634ea67f

作者:Kyle knudson

目录
相关文章
|
3月前
|
人工智能 自然语言处理 安全
AutoGen框架入门:5个核心概念搭建智能体协作系统
AutoGen是微软开源的多智能体AI框架,支持多个AI智能体与人类协作,通过对话完成复杂任务。各智能体具备不同角色与能力,可调用工具、执行代码,并在群聊中辩论、推理、纠错,实现无需人工干预的自动化协作,适用于复杂问题求解与团队化AI应用开发。
472 13
AutoGen框架入门:5个核心概念搭建智能体协作系统
|
18天前
|
前端开发 算法
深度研究Agent架构解析:4种Agent架构介绍及实用Prompt模板
本文系统梳理了深度搜索Agent的主流架构演进:从基础的Planner-Only,到引入评估反馈的双模块设计,再到支持层次化分解的递归式ROMA方案。重点解析了问题拆解与终止判断两大核心挑战,并提供了实用的Prompt模板与优化策略,为构建高效搜索Agent提供清晰路径。
379 10
深度研究Agent架构解析:4种Agent架构介绍及实用Prompt模板
|
3月前
|
人工智能 开发框架 安全
浅谈 Agent 开发工具链演进历程
模型带来了意识和自主性,但在输出结果的确定性和一致性上降低了。无论是基础大模型厂商,还是提供开发工具链和运行保障的厂家,本质都是希望提升输出的可靠性,只是不同的团队基因和行业判断,提供了不同的实现路径。本文按四个阶段,通过串联一些知名的开发工具,来回顾 Agent 开发工具链的演进历程。
820 60
|
5月前
|
存储 人工智能 NoSQL
万字解码 Agentic AI 时代的记忆系统演进之路
本文深入探讨了在 Agentic AI 时代,记忆(Memory) 作为智能体核心能力的定义、构建与技术演进。
1954 9
万字解码 Agentic AI 时代的记忆系统演进之路
|
2月前
|
存储 JSON API
TOON:专为 LLM 设计的轻量级数据格式
TOON(Token-Oriented Object Notation)是一种专为降低LLM输入token消耗设计的数据格式。它通过省略JSON中冗余的括号、引号和重复键名,用类似CSV与YAML结合的方式表达结构化数据,显著减少token数量,适合向模型高效传参,但不替代JSON用于存储或复杂嵌套场景。
758 2
TOON:专为 LLM 设计的轻量级数据格式
|
4月前
|
存储 人工智能 搜索推荐
Mem0 + Milvus:为人工智能构建持久化长时记忆
Mem0 为AI打造持久记忆层,结合Milvus向量数据库,让智能体记住用户偏好、追溯历史对话,实现个性化持续交互,告别“健忘”AI。
Mem0 + Milvus:为人工智能构建持久化长时记忆
|
3月前
|
人工智能 安全 Java
分布式 Multi Agent 安全高可用探索与实践
在人工智能加速发展的今天,AI Agent 正在成为推动“人工智能+”战略落地的核心引擎。无论是技术趋势还是政策导向,都预示着一场深刻的变革正在发生。如果你也在探索 Agent 的应用场景,欢迎关注 AgentScope 项目,或尝试使用阿里云 MSE + Higress + Nacos 构建属于你的 AI 原生应用。一起,走进智能体的新世界。
1011 63
|
2月前
|
人工智能 JSON 缓存
CrewAI 上手攻略:多 Agent 自动化处理复杂任务,让 AI 像员工一样分工协作
CrewAI 是一个基于 Python 的自主 AI 智能体编排框架,可构建“虚拟团队”协同完成复杂任务。通过定义角色明确的 Agents、任务流 Tasks、协作流程 Processes 及可用工具 Tools,实现研究、写作、开发等多环节自动化。适用于长链条工作流,如研报生成、竞品分析、软件开发等,支持异步执行、人工介入与结构化输出,集成主流大模型与工具生态,是处理复杂知识型任务的高效选择。(238 字)
502 0
CrewAI 上手攻略:多 Agent 自动化处理复杂任务,让 AI 像员工一样分工协作