Mem0发布长效记忆架构研究:准确率领先OpenAI26%,推理延迟降低91%!

AI 记忆平台 Mem0 近期公开了其核心长效记忆算法的研究成果。实验数据显示,在 LOCOMO 基准测试中,Mem0 的响应准确率比 OpenAI 的内置记忆功能高出 26%,同时由于其「事实化」的检索机制,其 P95 推理延迟降低了 91%,Token 消耗量缩减了 90%。 该算法解决的核心问...
Mem0发布长效记忆架构研究:准确率领先OpenAI26%,推理延迟降低91%!
Mem0发布长效记忆架构研究:准确率领先OpenAI26%,推理延迟降低91%!

AI 记忆平台 Mem0 近期公开了其核心长效记忆算法的研究成果。实验数据显示,在 LOCOMO 基准测试中,Mem0 的响应准确率比 OpenAI 的内置记忆功能高出 26%,同时由于其「事实化」的检索机制,其 P95 推理延迟降低了 91%,Token 消耗量缩减了 90%。

该算法解决的核心问题是 AI 代理在长周期交互中的「健忘」现象。与单纯扩大 LLM 上下文窗口的暴力路径不同,Mem0 采用了一种两阶段处理管线:在「提取阶段」,系统会从最新对话、滚动摘要和历史记录中提取关键事实;在「更新阶段」,系统通过向量数据库进行比对,执行新增、更新、删除冲突或忽略等操作,确保记忆库的精简与一致。

研究还介绍了一种增强型变体 Mem0ᵍ。该版本引入了图数据库结构,将提取的事实转化为带标签的节点与边,从而捕获多会话间的复杂实体关系。在实际生产环境中,Mem0 能在 0.71 秒内完成从记忆检索到回答生成的全流程,而传统的「全上下文」方法则需要近 10 秒。目前,该研究已被欧洲人工智能会议(ECAI)接收,相关代码已在 GitHub 开源。

image

mem0.ai

Introducing the token-efficient memory algorithm

Benchmarked across LoCoMo, LongMemEval, and BEAM, achieves competitive accuracy while using under 7,000 tokens per retrieval call. For comparison, full-context approaches on these benchmarks routinely consume 25,000+ tokens per query.

github.com

GitHub - mem0ai/mem0: Universal memory layer for AI Agents

Universal memory layer for AI Agents

3 个帖子 - 3 位参与者

阅读完整话题

来源: linux.do查看原文