一夜之间,AI彻底告别“健忘症”!最难考试拿下99%,全网炸锅

简介: ASMR是Supermemory团队推出的革命性AI记忆系统,抛弃向量数据库,首创6维观察者+3路搜索Agent并行推理架构,在最难长期记忆测试LongMemEval中达99%准确率,实现真正“不健忘”的AI。

你有没有过这种体验——

跟AI聊了半天,它转头就忘了你叫什么;上个月刚跟它讨论过的事情,今天再问,它一脸懵;你反复强调自己的喜好,它每次都要重新问一遍……

这种感觉,就像在跟一个患有严重健忘症的人对话。

每次开口,都是初次见面。

但就在今天,这一切被彻底改写了。

一个叫Supermemory的团队,向全世界扔出了一颗“核弹”——超级记忆系统ASMR横空出世,在AI记忆界公认最难的考试LongMemEval中,直接拿下了99%的准确率。

消息一出,X(原推特)热榜瞬间被刷爆。

全网只有四个字:太疯狂了。

AI的“金鱼记忆”,终于被治好了
先说说这个考试有多难。

LongMemEval是目前业内公认最严苛的长期记忆测试,没有之一。它不像普通考试那样只考“你记得昨天说了什么”,而是模拟真实世界中的各种混乱场景:

超11.5万字的对话历史、互相矛盾的信息、分散在多个会话中的零碎事件,还有需要推理时间线的复杂问题……

过去的AI记忆系统,在这里基本都“挂科”。能上80%就算顶尖,绝大多数连及格都够呛。

而ASMR交出的答卷是——99%。

这意味着什么?

意味着它不是“大概记得”,而是几乎零遗忘。意味着在面对海量信息、矛盾表述、时间交错的情况下,它依然能精准抓出正确答案。

有业内人士看完数据后只说了一句话:“AI记忆的难题,可能真的被彻底解决了。”

不靠向量数据库,全靠“AI团队”干活
最让人意外的是,ASMR的技术实现思路,反而非常简单。

它抛弃了传统的向量数据库,抛弃了嵌入模式,完全在内存中运行。

简单来说,它不靠“数学相似度”去猜,而是靠真正的“理解”去检索。

怎么做到的?答案是——派出一支AI小分队。

第一步:3个“观察者”并行阅读

当对话数据进来时,3个观察者Agent同时开工,各自负责不同部分的原始会话。它们不是简单地把内容存下来,而是围绕六个维度进行定向提取:个人信息、偏好、事件、时间线、信息更新、助手信息。

每个被提取出来的事实,都会被“原生存储”,并且标记清楚来自哪段对话。

第二步:3个“搜索者”主动推理

当用户提问时,ASMR不会去查向量数据库。它会再派出3个搜索Agent,各自分工:

一个专搜直接事实和明确陈述; 一个挖掘上下文、社交线索和暗示; 一个负责重建时间线和关系图谱。

3个Agent的结果汇总后,还会提取原文逐字片段进行细节验证。

全程没有关键词匹配,没有数学相似度,靠的是实打实的认知理解。

这还没完。为了应对LongMemEval中五花八门的问题类型,团队又做了两种尝试:

一种是让8个高度专业化的提示词变体并行运行,各司其职,只要有任何一个跑出正确答案就算对——准确率直接拉到98.6%。

另一种是构建12个专家Agent组成的“决策森林”,最后由一个聚合模型综合判断,准确率也高达97.2%。

说白了,ASMR不是靠一个“全能选手”硬扛,而是用一群分工明确的专家协同作战。

但ASMR只是一个开始
如果你以为ASMR只是一个刷榜的实验项目,那就太小看这个团队了。

它背后是一个叫Supermemory的完整记忆引擎——一套面向所有AI应用的记忆与上下文基础设施。

团队在GitHub上写得很直白:

你的AI在对话之间什么都记不住,Supermemory来修。

RAG(检索增强生成)很多人都听过,但记忆和RAG其实是两回事。

RAG不认人——今天给张三的回答,明天李四来问也是一样。而Supermemory会从对话中主动提取事实,追踪变化,处理矛盾,甚至自动遗忘。

举个例子:

你上个月说“我住在北京”,这个月又说“我刚搬到上海”。普通的RAG会把两条信息都丢给大模型,让它自己猜该信哪个。而Supermemory知道后者覆盖了前者,只返回“上海”。

更狠的是“自动遗忘”。你说“我明天有个考试”,等日期过了,这条记忆自动失效,不会变成永久噪音。

一次API调用,延迟约50毫秒,你的Agent就知道对面坐的是谁。

把这个用户画像注入到系统提示词里,AI瞬间从“陌生人模式”切换到“老朋友模式”。

记忆,正在成为AI的基础设施
Supermemory还接了一整套外部数据源——Google Drive、Gmail、Notion、OneDrive、GitHub,全部通过实时Webhook自动同步。文档传上去自动处理,PDF解析、图片OCR、视频转录,零配置,传完就能搜。

对开发者来说,集成成本被压到了最低。npm装一个包,几行代码就能给自己的Agent加上完整的记忆能力。Vercel AI SDK、LangChain、LangGraph、OpenAI Agents SDK,主流AI开发框架全部有现成封装。

甚至不用写代码也行——Supermemory提供了MCP服务器,一行命令安装,Claude Desktop、Cursor、Windsurf、VS Code直接就能用。

这场仗,才刚刚开始
过去几年,大模型的竞争一直在参数规模、推理速度、上下文窗口长度这些维度上打转。

但一个128K的上下文窗口再大,对话一结束就清空,下次见面还是陌生人。

记忆,才是让AI从“工具”变成“搭档”的最后一块拼图。

当每一个Agent都能记住你是谁、你在做什么、你上次说到哪里,人机交互的体验会发生一次静悄悄的质变。

不是AI突然变聪明了。

而是它终于不再失忆了。

值得一提的是,ASMR将于4月初开源全部代码。

AI记忆的“大航海时代”,正式开启。

相关文章
|
2天前
|
人工智能 JSON 机器人
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
本文带你零成本玩转OpenClaw:学生认证白嫖6个月阿里云服务器,手把手配置飞书机器人、接入免费/高性价比AI模型(NVIDIA/通义),并打造微信公众号“全自动分身”——实时抓热榜、AI选题拆解、一键发布草稿,5分钟完成热点→文章全流程!
10264 35
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
|
14天前
|
人工智能 安全 Linux
【OpenClaw保姆级图文教程】阿里云/本地部署集成模型Ollama/Qwen3.5/百炼 API 步骤流程及避坑指南
2026年,AI代理工具的部署逻辑已从“单一云端依赖”转向“云端+本地双轨模式”。OpenClaw(曾用名Clawdbot)作为开源AI代理框架,既支持对接阿里云百炼等云端免费API,也能通过Ollama部署本地大模型,完美解决两类核心需求:一是担心云端API泄露核心数据的隐私安全诉求;二是频繁调用导致token消耗过高的成本控制需求。
5948 14
|
22天前
|
人工智能 JavaScript Ubuntu
5分钟上手龙虾AI!OpenClaw部署(阿里云+本地)+ 免费多模型配置保姆级教程(MiniMax、Claude、阿里云百炼)
OpenClaw(昵称“龙虾AI”)作为2026年热门的开源个人AI助手,由PSPDFKit创始人Peter Steinberger开发,核心优势在于“真正执行任务”——不仅能聊天互动,还能自动处理邮件、管理日程、订机票、写代码等,且所有数据本地处理,隐私完全可控。它支持接入MiniMax、Claude、GPT等多类大模型,兼容微信、Telegram、飞书等主流聊天工具,搭配100+可扩展技能,成为兼顾实用性与隐私性的AI工具首选。
23235 120
|
8天前
|
人工智能 JavaScript API
解放双手!OpenClaw Agent Browser全攻略(阿里云+本地部署+免费API+网页自动化场景落地)
“让AI聊聊天、写代码不难,难的是让它自己打开网页、填表单、查数据”——2026年,无数OpenClaw用户被这个痛点困扰。参考文章直击核心:当AI只能“纸上谈兵”,无法实际操控浏览器,就永远成不了真正的“数字员工”。而Agent Browser技能的出现,彻底打破了这一壁垒——它给OpenClaw装上“上网的手和眼睛”,让AI能像真人一样打开网页、点击按钮、填写表单、提取数据,24小时不间断完成网页自动化任务。
1965 4