/ ai资讯

腾讯云开源Agent Memory:Token消耗最高降低61%

发布时间:2026-05-15 11:46:21

近日,腾讯云数据库团队正式开源TencentDB Agent Memory,一套面向AI Agent长任务场景的分层记忆引擎,采用MIT协议开放。该项目通过"上下文卸载 Mermaid任务画布"两大核心技术,在多任务连续Session实验中最高降低61.38%的Token消耗,同时将任务成功率相对提升51.52%。目前项目已适配OpenClaw和Hermes等主流Agent框架,支持一键集成。

当前主流AI Agent的记忆方案,大多是把对话历史压缩成一段摘要,在下次会话时注入上下文。这种方式在短对话中够用,但在真实的长周期任务中会暴露三个核心问题。

一是跨会话断裂。昨天反复确认的代码规范,今天新开一个会话就全忘了。二是事实与偏好混淆。用户说过"我用TypeScript"和"帮我查一下天气",这两条信息的价值完全不同,却被同等对待。三是上下文膨胀。任务越长,堆进上下文的历史信息越多,Token消耗持续攀升,模型注意力也在衰减。

TencentDB Agent Memory正是为解决这些问题而来。

这套记忆引擎提出了两项关键技术。

第一项是"Mermaid任务画布"。系统会将Agent的任务执行过程组织成一张结构化任务图,用Mermaid Flowchart把任务状态、步骤摘要和执行关系可视化呈现。Agent不需要记住所有内容,只需要知道哪些信息重要、它们被组织在哪里、必要时如何一步步展开。历史没有被压成一段不可恢复的摘要,而是变成了一张可以继续执行的地图——能折叠,也能展开。

第二项是"上下文卸载(Context Offloading)"。每次工具调用结束后,网页内容、日志输出、代码结果等原始信息不再长期占据上下文窗口,而是完整写入外部文件,上下文中只保留一行摘要和索引路径。需要时,Agent可以按四层递进结构逐层回溯:从Level 2-3的轻量摘要,到Level 1的JSONL记录,再到Level 0的完整原文,任何一层压缩都不是不可逆的黑盒。

数据是最有说服力的。在超长Session评测中,TencentDB Agent Memory作为OpenClaw插件接入后,Token消耗最高降低61.38%,任务通过率相对提升51.52%。在个性化记忆准确率(PersonaMem指标)上,从48%提升到76%,优化幅度接近60%。

值得注意的是,仅使用上下文卸载时Token节省约15%,叠加Mermaid画布后提升至31%至33%。这说明画布的结构化能力对记忆压缩有着独立且显著的贡献——上下文中的噪声减少后,模型注意力更集中在当前任务目标上。

TencentDB Agent Memory采用四层递进式记忆架构:底层(L0)保留原始对话证据,中间层(L1-L2)逐步提炼为场景归纳和原子记忆,顶层(L3)生成用户画像。每一层只做一件事,层与层之间通过提取、聚合、蒸馏的管道连接,任何一层都可以独立升级或替换。

在部署方式上,项目默认使用本地SQLite作为后端,零外部API依赖,所有中间产物均为人类可读的Markdown和Mermaid文件。进阶用户也可接入腾讯云向量数据库TCVDB,实现BM25 Vector的混合检索。同时支持跨Agent、跨框架、跨设备的记忆导入导出和实时迁移。

据腾讯云介绍,TencentDB Agent Memory的长期记忆功能已于4月初上线并免费开放使用,当时在PersonaMem测试集上就已将OpenClaw的整体回答准确率从48%提升至76.10%。而此次5月14日的开源,重点聚焦于短期记忆压缩能力,把已经在内部验证过的产品能力开放给社区。

项目已在GitHub上线,目前已获得超过1300个Star。开发者可以通过OpenClaw插件或Hermes Gateway一键接入,极简安装仅需一条命令。

  • AI AI 关注

    关注

    91

    文章

    41716

    浏览量

    302924

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com