2026年4月20日,来自AWS生成式AI创新中心与汇丰银行科技中心的联合研究团队发布了最新前沿学术论文。该团队首次提出了名为“经验压缩光谱(Experience Compression Spectrum)”的统一框架,旨在解决大语言模型(LLM)智能体在长周期部署中面临的经验数据过载与检索算力瓶颈问题。
Experience Compression Spectrum: Unifying Memory, Skills, and Rules in LLM...
As LLM agents scale to long-horizon, multi-session deployments, efficiently managing accumulated experience becomes a critical bottleneck. Agent memory systems and agent skill discovery both address this challenge -- extracting reusable knowledge...
随着AI智能体处理的任务日益增多,其积累的交互数据会迅速撑爆系统的“脑容量”(上下文窗口)。过去,学术界解决该问题分为互不交流的两派,一派研究“记忆”(让AI记住发生过的具体事件),另一派研究“技能”(让AI总结出标准的操作流程)。而本篇论文指出,记忆和技能本质上是同一种操作,即对经验数据的“压缩”。研究人员将这种压缩分为四个递进等级:完全不压缩的原始记录(0级)、提炼出关键事件的阶段性记忆(1级)、高度抽象出的可复用操作技能(2级),以及极致浓缩的通用指导规则(3级)。数据被压缩得越高级,占用的内存就越小,AI调用的速度就越快,且知识的通用性也越强。
研究团队在分析了现有的20多个主流智能体系统后发现了一个行业盲区:目前所有的AI系统都只能在单一、预设的压缩等级下“死板”地工作,没有任何一个系统能够根据实际情况在记忆、技能和规则之间进行灵活转换。研究人员将其称为智能体演化中“缺失的对角线”。
研究指出,未来的AI应当具备自适应的跨级压缩能力——当相似的“记忆”积累到一定数量时,系统应自动将其向上晋升为通用的“技能”或“规则”;而当抽象的规则在特定语境下失效时,系统也能将其向下打回为具体的“记忆”重新学习。
5 个帖子 - 3 位参与者